To see the other types of publications on this topic, follow the link: Minimal pair.

Dissertations / Theses on the topic 'Minimal pair'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Minimal pair.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Przulj, Natasa. "Minimal hereditary dominating pair graphs." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape3/PQDD_0026/MQ50365.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Khani, Mohsen. "The first order theory of a dense pair and a discrete group." Thesis, University of Manchester, 2013. https://www.research.manchester.ac.uk/portal/en/theses/the-first-order-theory-of-a-dense-pair-and-a-discrete-group(01e5c6b4-fe53-49c9-8b88-6c47c0ac2f6f).html.

Full text
Abstract:
In this thesis we have shown that a seemingly complicated mathematical structure can exhibit 'tame behaviour'. The structure we have dealt with is a field (a space in which there are addition and multiplication which satisfy natural properties) together with a dense subset (a subset which has spread in all parts of the this set, as Q does in R) and a discrete subset (a subset comprised of single points which keep certain distances from one another). This tameness is essentially with regards to not being trapped with the 'Godel phenomeonon' as the Peano arithmetic does.
APA, Harvard, Vancouver, ISO, and other styles
3

Pahel, Douglas Jude. "CP violating effects in W and Z boson pair production at the International Linear Collider in the minimal supersymmetric standard model /." Diss., Digital Dissertations Database. Restricted to UC campuses, 2005. http://uclibs.org/PID/11984.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Zolotareva, Tatiana. "Construction de surfaces à courbure moyenne constante et surfaces minimales par des méthodes perturbatives." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLX003/document.

Full text
Abstract:
Cette thèse s'inscrit dans l'étude des sous-variétés minimales et à courbure moyenne constante et de l'influence de la géométrie de la variété ambiante sur les solutions de ce problème.Dans le premier chapitre, en suivant les idées de F. Almgren, on propose une généralisation de la notion d'hypersurface de courbure moyenne constante à toutes codimensions. En dimension n-k on définie les sous-variétés à courbure moyenne constante comme les points critiques de la fonctionnelle de k-volume des bords des variétés minimales de dimension k+1. On prouve l'existence dans une variété riemannienne compacte de dimension n de sous-variétés à courbure moyenne constante de codimension n-k pour tout k < n qui sont des perturbations des sphères géodésiques de petit volume.Dans le deuxième chapitre, on s'intéresse aux surfaces minimales à bords libres dans la boule unité de l'espace euclidien de dimension 3, c'est-à-dire aux surfaces minimales plongées dans la boule unité dont le bord rencontre la sphère unité orthogonalement. On démontre l'existence de deux famille géométriquement distinctes de telles surfaces qui sont indexées par un entier n assez grand, qui représente le nombre de composantes connexes du bord de ces surfaces. Nous donnons en particulier une deuxième preuve d'un résultat de A. Fraser et R. Schoen concernant l'existence de telles surfaces.Un des résultats fondamentaux de la théorie des surfaces à courbure moyenne constante est le théorème de Hopf qui affirme que les seules sphères topologiques à courbure moyenne constante dans l'espace euclidien de dimension 3 sont les sphères rondes. Dans le troisième chapitre, on propose une construction dans une variété riemannienne de dimension 3 d'une famille de sphères topologiques à courbure moyenne constante qui ne sont pas convexes et dont la courbure moyenne est très grande
The subject of this thesis is the study of minimal and constant mean curvature submanifolds and of the influence of the geometry of the ambient manifold on the solutions of this problem.In the first chapter, following the ideas of F. Almgren, we propose a generalization of the notion of hypersurface with constant mean curvature to all codimensions. In codimension n-k we define constant mean curvature submanifolds as the critical points of the functional of the k - dimensional volume of the boundaries of k+1 - dimensional minimal submanifolds. We prove the existence in compact n-dimensional manifolds of n-k codimensional submanifolds with constant mean curvature for all k
APA, Harvard, Vancouver, ISO, and other styles
5

Semu, Mitiku Kassa. "On minimal pairs of compact convex sets and of convex functions /." [S.l. : s.n.], 2002. http://www.gbv.de/dms/zbw/36225754X.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Hashizume, Kenta. "On the non-vanishing conjecture and existence of log minimal models." Kyoto University, 2017. http://hdl.handle.net/2433/228227.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Dautriche, Isabelle. "Weaving an ambiguous lexicon." Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCB112/document.

Full text
Abstract:
Il y a (au moins) deux questions fondamentales que l’on est amené à se poser lorsqu’on étudie le langage: comment acquiert-on le langage? —le problème d’apprentissage —et pourquoi les langues du monde partagent certaines propriétés mais pas d’autres? —le problème typologique. Dans cette thèse, j’entreprends de relier ces deux domaines en me focalisant sur le lexique, l’ensemble des mots de notre langue et leur sens associés, en posant les questions suivantes: pourquoi le lexique est-il tel qu’il est? Et est-ce que les propriétés du lexique peuvent être (en partie) expliquées par la façon dont les enfants apprennent leur langue? Un des aspects les plus frappants du lexique est que les mots que nous utilisons sont ambigus et peuvent être confondus facilement avec d’autres. En effet, les mots peuvent avoir plusieurs sens (par exemple, les homophones) et sont représentés par un ensemble limité de sons qui augmentent la possibilité qu’ils soient confondus (par exemple, les paires minimales). L’existence de ces mots semble présenter un problème pour les enfants qui apprennent leur langue car il a été montré qu’ils ont des difficultés à apprendre des mots dont les formes sonores sont proches et qu’ils résistent à l’apprentissage des mots ayant plusieurs sens. En combinant une approche computationnelle et expérimentale, je montre, quantitativement, que les mots du lexique sont, en effet, plus similaires que ce qui serait attendu par chance, et expérimentalement, que les enfants n’ont aucun problème à apprendre ces mots à la condition qu’ils apparaissent dans des contextes suffisamment distincts. Enfin, je propose que l’étude des mots ambigus permet de révéler des éléments importants du mécanisme d’apprentissage du langage qui sont actuellement absents des théories actuelles. Cet ensemble d’études suggère que les mots ambigus et les mots similaires, bien que présents dans le langage, n’apparaissent pas arbitrairement dans le langage et que leur organisation reflète (en partie) la façon dont les enfants apprennent leur langue
Modern cognitive science of language concerns itself with (at least) two fundamental questions: how do humans learn language? —the learning problem —and why do the world’s languages exhibit some properties and not others? —the typology problem. In this dissertation, I attempt to link these two questions by looking at the lexicon, the set of word-forms and their associated meanings, and ask why do lexicons look the way they are? And can the properties exhibited by the lexicon be (in part) explained by the way children learn their language? One striking observation is that the set of words in a given language is highly ambiguous and confusable. Words may have multiple senses (e.g., homonymy, polysemy) and are represented by an arrangement of a finite set of sounds that potentially increase their confusability (e.g., minimal pairs). Lexicons bearing such properties present a problem for children learning their language who seem to have difficulty learning similar sounding words and resist learning words having multiple meanings. Using lexical models and experimental methods in toddlers and adults, I present quantitative evidence that lexicons are, indeed, more confusable than what would be expected by chance alone. I then present empirical evidence suggesting that toddlers have the tools to bypass these problems given that ambiguous or confusable words are constrained to appear in distinct context. Finally, I submit that the study of ambiguous words reveal factors that were currently missing from current accounts of word learning. Taken together this research suggests that ambiguous and confusable words, while present in the language, may be restricted in their distribution in the lexicon and that these restrictions reflect (in part) how children learn languages
APA, Harvard, Vancouver, ISO, and other styles
8

Cherfi, Mohamed. "Estimation par minimum de Ø-divergences." Paris 6, 2010. http://www.theses.fr/2010PA066389.

Full text
Abstract:
Le travail présenté dans cette thèse porte sur les problèmes d’estimation par minimum de -divergence. Dans un premier temps, nous considérons le problème d’estimation pour des modèles paramétriques dans le cas de données censurées. Les méthodes proposées sont basées sur la représentation duale des divergences entre mesures. Nous introduisons de nouveaux critères de sélection de modèles basés sur les divergences qui englobent le critère d’Akaike. Enfin, nous proposons aussi des méthodes d’estimation dans les modèles de régression non-linéaire semi-paramétriques.
APA, Harvard, Vancouver, ISO, and other styles
9

Mazet, Laurent. "Construction de surfaces minimales par résolution du problème de Dirichlet." Phd thesis, Université Paul Sabatier - Toulouse III, 2004. http://tel.archives-ouvertes.fr/tel-00007780.

Full text
Abstract:
Le cadre de cette thèse est la théorie des surfaces minimales. En 2001, C. Cosin et A. Ros démontrent que, si un polygone borde un disque immergé, ce polygone est le polygone de flux d'un r-noide Alexandrov-plongé symétrique de genre 0. Leur démonstration se fonde sur l'étude de l'espace de ces surfaces minimales. Notre travail présente une démonstration plus constructive de leur résultat. Notre méthode repose sur la résolution du problème de Dirichlet pour l'équation des surfaces minimales. A cette fin, nous étudions la convergence de suites de solutions de cette équation. Nous définissons la notion de lignes de divergence de la suite qui sont les points ou la suite des gradients est non-bornées. L'étude de ces lignes permet de conclure sur la convergence d'une suite. Les r-noides sont alors construits comme les surfaces conjuguées aux graphes de solutions du problème de Dirichlet sur des domaines fixés par les polygones. Dans une seconde partie, nous montrons que, sous l'hypothèse de border un disque immergé, un polygone est aussi le polygone de flux d'un r-noide Alexandrov-plongé symétrique de genre $1$. La démonstration repose sur une amélioration des idées de celle du premier résultat, elle nécessite entre autre la résolution d'un problème de période. Cette résolution passe par l'étude du comportement limite de certaines suites de surfaces minimales.
APA, Harvard, Vancouver, ISO, and other styles
10

Royer, Martin. "Optimalité statistique du partitionnement par l'optimisation convexe." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS442/document.

Full text
Abstract:
Ces travaux traitent de la problématique du partitionnement d'un ensemble d'observations ou de variables en groupes d'éléments similaires. Elle sert de nombreuses applications essentielles comme la classification de gènes en biologie ou l'apprentissage automatique en analyse d'image. Les travaux modélisent la notion de similarité entre éléments pour analyser les propriétés statistiques d'algorithmes de partitionnement, comme l'estimateur des K-moyennes. Ce dernier est équivalent au maximum de vraisemblance quand les groupes considérés sont homoscedastiques ; dans le cas contraire, on s'aperçoit que l'estimateur est biaisé, en ce qu'il tend à séparer les groupes ayant une plus grande dispersion. En utilisant une formulation équivalente qui fait intervenir l'optimisation semi-définie positive, on propose une correction opérationnelle de ce biais. On construit et étudie ainsi des algorithmes de complexité polynomiale qui sont quasi-minimax pour le partitionnement exact dans les deux contextes étudiés. Ces résultats s'interprètent dans le cadre de modèles standards comme le modèle de mélange ou le modèle à variables latentes, et s'étendent à de nouveaux modèles plus généraux et plus robustes, les modèles $G$-block. Les contrôles peuvent être adaptés au nombre intrinsèque de groupes, ainsi qu'à la dimension effective de l'espace des données. Ils apportent une meilleure compréhension d'estimateurs classiques du partitionnement comme les estimateurs spectraux. Ils sont appuyés par des expériences extensives sur données de synthèse, ainsi que sur des jeux de données réelles. Enfin lorsqu'on cherche à améliorer l'efficacité computationnelle des algorithmes étudiés, on peut utiliser une connexion forte avec le domaine de l'optimisation convexe et notamment exploiter des techniques de relaxation de faible rang motivées par des problématiques de grande dimension
This work focuses on the problem of point and variable clustering, that is the grouping of either similar vectors or similar components of a vector in a metric space. This has applications in many relevant fields including pattern recognition in image analysis or gene expression data classification. Through adequate modeling of the similarity between points or variables within a cluster we analyse the statistical properties of known clustering algorithms such as K-means.When considering homoscedastic elements for all groups the K-means algorithm is equivalent to a maximum-likelihood procedure. Otherwise the algorithm shows bias in the sense that it tends to separate groups with larger dispersion, regardless of actual group separation. By using a semi definite positive reformulation of the estimator, we suggest a pattern of correction for the algorithm that leads to the construction of computational algorithm with quasiminimax properties for hard clustering of points or variables.Those results can be studied under the classical mixture model or latent variables model, and can be extended to more general and robust class of $G$-block models. The stochastic controls can be made adaptive to the unknown number of classes as well as to the effective dimension of the problem. They help understand the behavior of the class of spectral estimators that are also widely used for clustering problems. They are supported by extensive simulation studies as well as data analysis stemming from the biological field.When focus is brought on the computational aspect of those algorithms, we exploit ideas based on a strong connexion with the domain of convex optimisation and specifically the technique of low-rank relaxation, of importance when dealing with high dimensional problems
APA, Harvard, Vancouver, ISO, and other styles
11

Ahmadniaye, Bosari Benyamin. "Reliable training scenarios for dealing with minimal parallel-resource language pairs in statistical machine translation." Doctoral thesis, Universitat Autònoma de Barcelona, 2017. http://hdl.handle.net/10803/461204.

Full text
Abstract:
La tesis trata sobre sistemas de traducción automática estadística (SMT) de alta calidad, para trabajar con pares de lenguajes con recursos paralelos mínimos, titulado “Reliable Training Scenarios for Dealing with Minimal Parallel-Resource Language Pairs in Statistical Machine Translation”. El desafío principal que abordamos en nuestro enfoque es la carencia de datos paralelos y este se enfrenta en diferentes escenarios. SMT es uno de los enfoques preferidos para traducción automática (MT), y se podrían detectar varias mejoras en este enfoque, específicamente en la calidad de salida en una serie de sistemas para pares de idiomas, desde los avances en potencia computacional, junto con la exploración llevada a cabo de nuevos métodos y algoritmos. Cuando reflexionamos sobre el desarrollo de sistemas SMT para muchos idiomas pares, el principal cuello de botella que encontraremos es la falta de datos paralelos de entrenamiento. Debido al hecho de que se requiere mucho tiempo y esfuerzo para crear estos corpus, están disponibles en cantidad, género e idioma limitados. Los modelos de SMT aprenden cómo podrían hacer la traducción a través del proceso de examen de un corpus paralelo bilingüe que contenga las oraciones alineadas con sus traducciones producidas por humanos. Sin embargo, la calidad de salida de los sistemas de SMT es depende de la disponibilidad de cantidades masivas de texto paralelo dentro de los idiomas de origen y destino. Por lo tanto, los recursos paralelos juegan un papel importante en la mejora de la calidad de los sistemas de SMT. Definimos la mínima configuración de los recursos paralelos de SMT que poseen solo pequeñas cantidades de datos paralelos, que también se puede apreciar en varios pares de idiomas. El rendimiento logrado por el mínimo recurso paralelo en SMT en el estado del arte es altamente apreciable, pero generalmente usan el texto monolingüe y no abordan fundamentalmente la escasez de entrenamiento de textos paralelos. Cuando creamos la ampliación en los datos de entrenamiento paralelos, sin proporcionar ningún tipo de garantía sobre la calidad de los pares de oraciones bilingües que se han generado recientemente, también aumentan las preocupaciones. Las limitaciones que surgen durante el entrenamiento de la SMT de recursos paralelos mínimos demuestran que los sistemas actuales son incapaces de producir resultados de traducción de alta calidad. En esta tesis, hemos propuesto dos escenarios, uno de “direct-bridge combination” y otro escenario de “round-trip training”. El primero se basa en la técnica de “bridge language”, mientras que el segundo se basa en el enfoque de “retraining”, para tratar con SMT de recursos paralelos mínimos. Nuestro objetivo principal para presentar el escenario de “direct-bridge combination” es que podamos acercarlo al rendimiento existente en el estado del arte. Este escenario se ha propuesto para maximizar la ganancia de información, eligiendo las partes apropiadas del sistema de traducción basado en “bridge” que no interfieran con el sistema de traducción directa en el que se confía más. Además, el escenario de “round trip training” ha sido propuesto para aprovechar la fácil disponibilidad del par de frases bilingües generadas para construir un sistema de SMT de alta calidad en un comportamiento iterativo, seleccionando el subconjunto de alta calidad de los pares de oraciones generados en el lado del objetivo, preparando sus oraciones adecuadas correspondientes de origen y juntándolas con los pares de oraciones originales para re-entrenar el sistema de SMT. Los métodos propuestos se evalúan intrínsecamente, y su comparación se realiza en base a los sistemas de traducción de referencia. También hemos llevado a cabo los experimentos en los escenarios propuestos antes mencionados con datos bilingües iniciales mínimos. Hemos demostrado la mejora en el rendimiento a través del uso de los métodos propuestos al construir sistemas de SMT de alta calidad sobre la línea de base que involucra a cada escenario.
The thesis is about the topic of high-quality Statistical Machine Translation (SMT) systems for working with minimal parallel-resource language pairs entitled “Reliable Training Scenarios for Dealing with Minimal Parallel-Resource Language Pairs in Statistical Machine Translation”. Then main challenge we targeted in our approaches is parallel data scarcity, and this challenge is faced in different solution scenarios. SMT is one of the preferred approaches to Machine Translation (MT), and various improvements could be detected in this approach, specifically in the output quality in a number of systems for language pairs since the advances in computational power, together with the exploration of new methods and algorithms have been made. When we ponder over the development of SMT systems for many language pairs, the major bottleneck that we will find is the lack of training parallel data. Due to the fact that lots of time and effort is required to create these corpora, they are available in limited quantity, genre, and language. SMT models learn that how they could do translation through the process of examining a bilingual parallel corpus that contains the sentences aligned with their human-produced translations. However, the output quality of SMT systems is heavily dependent on the availability of massive amounts of parallel text within the source and target languages. Hence, an important role is played by the parallel resources so that the quality of SMT systems could be improved. We define minimal parallel-resource SMT settings possess only small amounts of parallel data, which can also be seen in various pairs of languages. The performance achieved by current state-of-the-art minimal parallel-resource SMT is highly appreciable, but they usually use the monolingual text and do not fundamentally address the shortage of parallel training text. Creating enlargement in the parallel training data without providing any sort of guarantee on the quality of the bilingual sentence pairs that have been newly generated, is also raising concerns. The limitations that emerge during the training of the minimal parallel- resource SMT prove that the current systems are incapable of producing the high- quality translation output. In this thesis, we have proposed the “direct-bridge combination” scenario as well as the “round-trip training” scenario, that the former is based on bridge language technique while the latter one is based on retraining approach, for dealing with minimal parallel-resource SMT systems. Our main aim for putting forward the direct-bridge combination scenario is that we might bring it closer to state-of-the-art performance. This scenario has been proposed to maximize the information gain by choosing the appropriate portions of the bridge-based translation system that do not interfere with the direct translation system which is trusted more. Furthermore, the round-trip training scenario has been proposed to take advantage of the readily available generated bilingual sentence pairs to build high-quality SMT system in an iterative behavior; by selecting high- quality subset of generated sentence pairs in target side, preparing their suitable correspond source sentences, and using them together with the original sentence pairs to retrain the SMT system. The proposed methods are intrinsically evaluated, and their comparison is made against the baseline translation systems. We have also conducted the experiments in the aforementioned proposed scenarios with minimal initial bilingual data. We have demonstrated improvement made in the performance through the use of proposed methods while building high-quality SMT systems over the baseline involving each scenario.
APA, Harvard, Vancouver, ISO, and other styles
12

Townsend, Donald R. "The Use of a Habit Reversal Treatment for chronic Facial Pain in a Minimal Therapist Contact Format." VCU Scholars Compass, 1999. http://scholarscompass.vcu.edu/etd/1202.

Full text
Abstract:
The temporomandibular disorders (TMD) diminish quality of life and can be costly for both individuals and the health care system. Stress from a variety of factors, including daily hassles and maladaptive thought patterns, has been commonly cited as a contributing factor in TMD. Support for this hypothesis comes from research demonstrating masseter muscle hyperactivity in response to experimental stressors, such as painful or frustrating stimuli. Many believe the link between stress and increased masseter muscle pain is parafunctional oral habits, including teeth clenching, grinding, and lip biting. Habit reversal has been used effectively to treat parafunctional oral behaviors and facial pain. Treatment entails teaching individuals to detect, interrupt, and reverse maladaptive oral behaviors. Positive results have been achieved in a group treatment format. Problems with prior research suggest that high attrition resulted from scheduling demands of the group treatment format. To address these problems, this study modified the habit reversal protocol used by Gramling, et al. (1996, 1999) into a minimal contact therapy (MCT) format. MCT has been applied effectively with many problem behaviors, including chronic headaches. Twenty individuals (10-treatment and 10-waitlist control) participated in the seven-lesson, manualized treatment. Participants completed a pre- and post-treatment assessment and an 18-month follow-up. Individuals met with the therapist one time and received weekly feedback via telephone or e-mail. Participants submitted homework and quizzes for each lesson. Those in the control condition spoke with the therapist on a weekly basis as an attention control. Treatment lasted a mean of about 20 weeks. Significant improvement in pain severity including mean pain levels, highest weekly pain levels, and number of pain free days was noted in the treatment group relative to controls. The number and frequency of maladaptive oral habits revealed a strong trend towards lower levels from pre- to post-treatment for individuals in the treatment condition relative to controls. Additional measures of pain symptomotology and personality functioning also revealed significant improvements in the treatment group. Results suggest that a standardized treatment for facial pain is well suited for adaptation to a MCT format. Minimal contact therapy is flexible and as effective as similar group treatments.
APA, Harvard, Vancouver, ISO, and other styles
13

Pogorelcnik, Romain. "Décomposition par séparateurs minimaux complets et applications." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00824116.

Full text
Abstract:
Nous avons utilisé la décomposition par séparateurs minimaux complets. Pour décomposer un graphe G, il est nécessaire de trouver les séparateurs minimaux dans le graphe triangulé H correspondant. Dans ce contexte, nos premiers efforts se sont tournés vers la détection de séparateurs minimaux dans un graphe triangulé. Nous avons défini une structure, que nous avons nommée 'atom tree'. Cette dernière est inspirée du 'clique tree' et permet d'obtenir et de représenter les atomes qui sont les produits de la décomposition. Lors de la manipulation de données à l'aide de treillis de Galois, nous avons remarqué que la décomposition par séparateurs minimaux permettait une approche de type 'Diviser pour régner' pour les treillis de Galois. La détection des gènes fusionnés, qui est une étape importante pour la compréhension de l'évolution des espèces, nous a permis d'appliquer nos algorithmes de détection de séparateurs minimaux complets, qui nous a permis de détecter et regrouper de manière efficace les gènes fusionnés. Une autre application biologique fut la détection de familles de gènes d'intérêts à partir de données de niveaux d'expression de gènes. La structure de 'l'atom tree' nous a permis d'avoir un bon outils de visualisation et de gérer des volumes de données importantes.
APA, Harvard, Vancouver, ISO, and other styles
14

Martins, Maisa Jussara [UNESP]. "Estudo acústico da pronúncia de pares mínimos vocálicos do inglês por falantes nativos, professores brasileiros e alunos de nível intermediário e avançado." Universidade Estadual Paulista (UNESP), 2011. http://hdl.handle.net/11449/91302.

Full text
Abstract:
Made available in DSpace on 2014-06-11T19:25:16Z (GMT). No. of bitstreams: 0 Previous issue date: 2011-03-15Bitstream added on 2014-06-13T18:23:47Z : No. of bitstreams: 1 martins_mj_me_arafcl.pdf: 1892200 bytes, checksum: 364a6a751bd333f35160a4a97600eee8 (MD5)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
O presente trabalho de mestrado refere-se a um estudo acústico de pronúncia, que tem como principal objetivo verificar e analisar, por meio de registros de fala de professores brasileiros, de alunos de língua inglesa em nível intermediário e avançado, e de falantes nativos americanos, a maneira como esses indivíduos realizam os pares mínimos vocálicos /i/ e /I/, /E/ e /Q/. O primeiro critério de análise foi a aplicação de um questionário aos professores e alunos participantes; por meio dele, foi possível traçar as competências dos docentes e definir a atuação dos discentes como alunos de inglês; ademais, foi possível encaixá-los nos níveis de proficiência determinados pela escola onde os dados foram coletados. Com relação aos critérios acústicos, foram utilizados os seguintes parâmetros: o valor das freqüências de F1 e F2 das vogais produzidas pelos sujeitos participantes, sendo possível verificar o movimento de avanço / recuo e levantamento / abaixamento do corpo da língua durante a articulação dos segmentos; a diferença formântica entre F1 e F2, parâmetro que melhor define o grau de posterioridade de um som vocálico; e, por fim, a duração dos segmentos, parâmetro acústico essencial para a distinção entre as vogais analisadas. Sobre a metodologia de pesquisa, foram gravados 28 sujeitos: dois americanos nativos, dois professores brasileiros de inglês e 24 alunos brasileiros de uma escola de idiomas localizada em São José do Rio Preto (SP). Foi pedido para que cada indivíduo repetisse os pares de palavras cheap / chip e beg / bag três vezes (nesses vocábulos, realizam-se as vogais /i/ e /I/, /E/ e /Q/). Por meio das gravações, foi possível realizar a medição da freqüência dos formantes F1 e F2 das vogais produzidas por eles, bem como a medição da duração de cada som vocálico. A repetição por três vezes dos pares mínimos...
This master paper is an acoustic study of pronunciation, whose main goal is verify and analyze, through speech data of Brazilian teachers, intermediate and advanced students of English, and American native speakers, the way these people produce the vocalic minimal pairs /i/ and /I/, /E/ and /Q/. The first criterion of analysis was related to a questionnaire answered by the teachers and the students; this questionnaire allowed the researcher to define the teachers’ competences and the learners’ behavior as English students; besides, it was possible to fit them into the levels of proficiency determined by the school where the data was collected. Regarding the acoustic criteria, the following fundamental parameters were taken into consideration: F1 and F2 frequency values of vowels produced by the participants, in which it was possible to verify the tongue movements, associated with advancement and height, during the segmental articulation; the formant differences between F1 and F2, which better defines the posterior position of a vowel; and, finally, the segmental duration, which is an important acoustic parameter to distinguish the analyzed vowels. Concerning the research methodology, 28 people were recorded: two native Americans, two Brazilian English teachers and 24 Brazilian students from a language school located in São José do Rio Preto (SP). Each person had to repeat the pair of words cheap / chip and beg / bag for three times (in such words, the vowels /i/ and /I/, /E/ and /Q/ are expected to occur). With the recordings, it was possible to measure F1 and F2 frequencies of the vowels produced by the participants, as well as the duration of each vocalic sound. In the analyses, the absolute values of the formants and duration were not taken into consideration but an arithmetic average of the values from the three utterances of each case. It was concluded that the Brazilian... (Complete abstract click electronic access below)
APA, Harvard, Vancouver, ISO, and other styles
15

Everat, Jean-Christophe. "Topologie des coupes et segmentation d'images par extraction de minima." Paris 7, 1997. http://www.theses.fr/1997PA077207.

Full text
Abstract:
Nous nous interessons au probleme de la segmentation par ordinateur des images discretes a deux dimensions et en niveaux de gris. De telles images sont constituees de points auxquels sont associes des valeurs entieres correspondant a des mesures d'intensites lumineuses. La segmentation d'image par ordinateur consiste a rechercher une partition de ces points en sous-ensembles qui correspondent aux zones significatives de l'image. Parmis les nombreuses methodes de segmentation existantes, nous etudierons celles dites par extraction de minima. Ces methodes considerent des ensembles particulier de points : les minima, et comportent deux etapes : l'etape de regularisation et l'etape de reconstruction. Une methode de segmentation par extraction de minima tres efficace appelee segmentation par ligne de partage des eaux est proposee par le centre de morphologie mathematique de l'ensmp. Le but de cette these est de presenter une nouvelle methode de segmentation par extraction de minima utilisant des operateurs de bas-niveau bases sur une topologie des image en niveaux de gris appelee topologie des coupes. Son originalite reside dans le fait qu'a notre connaissance, c'est la premiere fois que l'on exploite specifiquement la topologie des coupes pour tenter de resoudre le probleme de la segmentation. Nous avons defini les nombres topologiques et les valeurs topologiques qui permettent de caracteriser certains points et de modifier de maniere precise la valeur de ces points. Reiterer jusqu'a stabilite ces modifications conduit a definir des operateurs qui preservent ou modifient de maniere controlee la topologie des coupes d'une image afin de la segmenter. Cette methode ne necessite pas de pre-traitements et donne de bons resultats sur differents types d'images de mauvaise qualite. Il est important de noter qu'elle ne necessite pas de reglage de parametre.
APA, Harvard, Vancouver, ISO, and other styles
16

Hart, Sharon Blodgett. "THE EFFECTIVENESS OF USING COMMUNICATION-CENTERED INTERVENTION TO FACILITATE PHONOLOGICAL LEARNING IN YOUNG CHILDREN." UKnowledge, 2007. http://uknowledge.uky.edu/gradschool_diss/518.

Full text
Abstract:
A phonological disorder is a communication disorder of the speech sound system characterized by an impaired ability to use developmentally expected speech sounds and sound patterns to communicate with others (Bauman-Waengler, 2004). This impairment affects the clarity of a child's speech and how easily a child's speech can be understood. As stated in the Diagnostic and Statistical Manual of Mental Disorders (DSM-IV) (American Psychiatric Association, 1994), difficulties with speech sound production may interfere with academic achievement, social communication, or future occupational achievement. Children with phonological impairments are generally viewed as being at risk for reading difficulties (American Speech-Language-Hearing Association, 2001).Clinicians and researchers in speech-language pathology agree that efficient treatment of children who have moderate to severe phonological disorders is critical. Although imitation and structured practice are primary strategies employed by speech- language pathologists for practicing speech production, using communicative tasks to facilitate generalization during phonological intervention has been suggested in the literature.The purpose of this study was to determine if communication-centered phonological intervention would be effective in improving speech production in preschool children with moderate to severe phonological disorders. A single subject multiple probe across subjects research design (Horner andamp; Baer, 1978) was used to assess the effectiveness of communication-centered phonological intervention with three preschool children. The communication-centered phonological intervention in this investigation consisted of the combined application of focused stimulation of key words during joint storybook reading and interactive practice of key words using communicative feedback.All three subjects demonstrated some type of phonological improvement following the communication-centered intervention. Two out of the three subjects demonstrated improvement in the use of the target phonological patterns during theintervention sessions with one of these participants demonstrating generalization of the target phonological pattern to conversational speech. Although the third subject did not demonstrate improvement during the intervention period, follow-up testing revealed some system-wide changes in his phonology that may be attributed to the intervention. Further investigation of communication-centered phonological intervention is warranted.
APA, Harvard, Vancouver, ISO, and other styles
17

Nembé, Jocelyn. "Estimation de la fonction d'intensité d'un processus ponctuel par complexité minimale." Phd thesis, Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00346118.

Full text
Abstract:
Soit un processus ponctuel observé sur un intervalle de temps fini, et admettant une intensité stochastique conforme au modèle de Aalen. La fonction d'intensité du processus est estimée à partir d'un échantillon indépendant et identiquement distribué de paires constituées par la réalisation du processus ponctuel et du processus prévisible associé, par la minimisation d'un critère qui représente la longueur d'un code variable pour les données observées. L'estimateur de complexité minimale est la fonction minimisant ce critère dans une famille de fonctions candidates. Un choix judicieux des fonctions de complexité permet de définir ainsi des codes universels pour des réalisations de processus ponctuels. Les estimateurs de la fonction d'intensité obtenus par minimisation de ce critère sont presque-sûrement consistants au sens de l'entropie, et au sens de la distance de Hellinger pour des fonctions de complexité satisfaisant l'inégalité de Kraft. L'étude des vitesses de convergence pour la distance de Hellinger, montre qu'elles sont majorées par celle de la redondance du code. Ces vitesses, sont précisées dans le cas des familles de fonctions trigonométriques, polynomiales et splines. Dans le cas particulier des processus de Poisson et des modèles de durées de vie avec censure, les mêmes vitesses de convergence sont obtenues pour des distances plus fortes. D'autres propriétés de l'estimateur sont présentées, notamment la découverte exacte de la fonction inconnue dans certains cas, et la normalité asymptotique. Des suites de tests exponentiels consistants sont également étudiées. Le comportement numérique de l'estimateur est analysé à travers des simulations dans le cas des modèles de durées de vie avec censure
APA, Harvard, Vancouver, ISO, and other styles
18

Nembé, Jocelyn Grègoire Gérard. "Estimation de la fonction d'intensité d'un processus ponctuel par complexité minimale." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00346118.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Witte, Erik. "Ett svenskt talmaterial för datorbaserad hörträning: Minimala par, meningar och siffror." Thesis, Örebro universitet, Institutionen för hälsovetenskaper, 2014. http://urn.kb.se/resolve?urn=urn:nbn:se:oru:diva-88525.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Noël, Lison. "The French New Novel : réception du Nouveau Roman par le milieu artistique américain : 1963-1981." Thesis, Paris 10, 2014. http://www.theses.fr/2014PA100160/document.

Full text
Abstract:
Au moment décisif de l'histoire culturelle franco-américaine où s'inverse la hiérarchie des capitales artistiques entre Paris et New York, le Nouveau Roman français connaissait une certaine fortune aux États-Unis, en particulier dans la communauté artistique regroupée autour de l'Art Minimal. À la faveur d'un double transfert - du champ littéraire vers le champ artistique et de la France vers les États-Unis -, le Nouveau Roman retenait l'attention d'une partie de l'art américain, qui tentait de se construire contre l'art européen du XIXe siècle mais avec la littérature française de la deuxième moitié du XXe siècle. Fondé sur une somme d'indices fournis par ces artistes et complétée par des enquêtes historiques et sociologiques, une collecte d'articles, une recherche théorique et des études d’œuvres significatives, ce travail tente d'expliquer les raisons de cette fortune et d'analyser les aboutissements théoriques et esthétiques de la réception du Nouveau Roman par le milieu artistique américain
In an key Franco-American cultural and historical moment when New York takes Paris's place as the world artistic capital, the French New Novel achieved certain successs in the United States, especially in the Minimal Art community. Owing to a double transfer – from the literary field to the artistic field and from France to America -, some American artists drew attention to the French New Novel. While they were developing their art against 19th century european art, they created it with 20th century French literature. This work is based on an amount of clues given by these artists, supplented by historical and sociological investigations, a collection of articles, a theorethical research, and studies of significant works of art, in an attempt to understand the reasons of this success and the theorethical and aesthetic realizations of the reception of the New Novel by the American artistic milieu
APA, Harvard, Vancouver, ISO, and other styles
21

Frenay, Arnaud. "Sur l'estimation par projection de la densité marginale d'un processus à temps continu." Paris 6, 2003. http://www.theses.fr/2003PA066432.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Crozet, Sébastien. "Efficient contact determination between solids with boundary representations (B-Rep)." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM089/document.

Full text
Abstract:
Avec le développement de systèmes robotiques avancés et de tâches de téléopération complexes, le besoin pour la réalisation de simulations en amont des opérations sur les systèmes réels se fait de plus en plus ressentir. Cela concerne en particulier les tests de faisabilité, d’entrainement d’opérateurs humains, de planification de mouvement, etc. Ces simulations doivent généralement être réalisées avec une précision importante des phénomènes physiques, notamment si l’opérateur humain est supposé faire face aux mêmes comportements mécaniques dans le monde réel que sur la scène virtuelle. La détection de collision, c’est à dire le calcul de points de contact et des normales de contact entre des objets rigides en mouvement et susceptibles d’interagir, occupe une portion significative des temps de calcul pour ce type de simulations. La précision ainsi que le niveau de continuité de ces informations de contact sont d’importance premières afin de produire des comportements réalistes des objets simulés. Cependant, la qualité des informations de contact ainsi calculées dépend fortement de la représentation géométrique des parties de la scène virtuelle directement impliquées dans la simulation mécanique. D'une part, les représentations géométriques basées sur des volumes discrets ou des tessellations permettent une génération de contacts extrêmement rapide, mais en contrepartie introduisent des artefacts numériques dus à l’approximation des formes en contact. D'autre part, l’utilisation de représentations surfaciques lisses (composées de courbes et surfaces lisses) produites par les modeleurs CAO permet d’éliminer ce problème d’approximations. Cependant, ces approches sont actuellement considérées trop lentes en pratique pour des applications en temps réel.Cette thèse est dédiée au développement d’une premier framework de détection de collision entre solides modélisés par représentation surfacique lisses suffisamment efficace pour offrir des performances temps-réel pour certaines applications industrielles nécessitant un niveau de précision élevé. Ces applications prennent typiquement la forme de la simulation d’opérations d’insertion avec faible jeu. L’approche proposée est basée sur une hiérarchie de volumes englobants et tire profit de caractéristiques clef des composants mécaniques industriels dont les surfaces sujettes à des contacts fonctionnels sont généralement modélisées par des surfaces canoniques (cylindres, sphères, cônes, plans, tores). Les contacts sur des surfaces d’interpolation telles que les NURBS sont généralement accidentels et rencontrés lors d’opérations de maintenance et de fabrication. Cette hiérarchie de volumes englobants est améliorée par l’identification d'entités supermaximales afin d’éviter la localisation redondante de points de contacts entre surfaces canoniques parfois découpées en plusieurs entités distinctes. De plus, le concept de cônes polyédrique de normales est défini afin d’établir des bornes de normales plus précises que les cônes de normales de révolution existants. Additionnellement, le framework ainsi développé est étendu afin de supporter des configurations incluant des câbles modélisés par des courbes de Bézier dilatées. Enfin, l’exploitation de la cohérence temporelle, ainsi que la parallélisation de l’ensemble du framework permet l’exécution en temps réel de certains scénarios industriels
With the development of advanced robotic systems and complex teleoperation tasks, the need to perform simulations before operating on physical systems becomes of increasing interest for feasibility tests, training of the human operators, motion planning, etc. Such simulations usually need to be performed with great accuracy of physical phenomena if, e.g., the operator is expected to face the same ones in the real world and in the virtual scene. Collision detection, i.e., the computation of contact points and contact normals between interacting rigid bodies, occupies a time-consuming part of such a physical simulation. The accuracy and smoothness of such contact information is of primary importance to produce a realistic behavior of the simulated objects. However, the quality of the computed contact information strongly depends on the geometric representation of the parts of the virtual scene directly involved in the mechanical simulation. On the one hand, discrete volumes-based and tessellation-based geometric representations allow very fast contacts generation at the cost of the potential introduction of numerical artifacts due to the approximation of the interacting geometrical shapes. On the other hand, the use of boundary representations (issued by CAD modelers) composed of smooth curve and surfaces removes this approximation problem but is currently considered being too slow in practice for real-time applications.This Ph.D focuses on developing a first complete collision detection framework on solids with smooth boundary representations that achieves real-time performances. Our goal is to allow the real-time simulation of industrial scenarios that require a high level of accuracy. Typical applications are insertion tasks with small mechanical clearances. The proposed approach is based on a bounding-volume hierarchy and takes advantage of key features of industrial mechanical components which are often modeled with surfaces describing functional contacts with canonical surfaces (cylinder, sphere, cone, plane, torus) while contacts over free-form surfaces like B-Splines are mostly accidental and encountered during operations of maintenance and manufacturing. We augment this hierarchy with the identification of supermaximal features in order to avoid redundant exact localization of contact points on canonical surfaces that may be represented as distinct features of the CAD model. In addition, we define polyhedral normal cones that offer tighter bounds of normals than existing normal cones of revolution. Moreover, we extend our method to handle configurations that involve beams modeled as deformable dilated Bézier curves. Finally, parallelization of the full approach allows industrial scenarios to be executed in real-time
APA, Harvard, Vancouver, ISO, and other styles
23

Wu, Ke. "3D segmentation and registration for minimal invasive prostate cancer therapy." Phd thesis, Université Rennes 1, 2014. http://tel.archives-ouvertes.fr/tel-00962028.

Full text
Abstract:
The work of this Thesis is focused on image guided focal therapy of prostate cancer by High Intensity Focused Ultrasound (HIFU). Currently MRI is the only imaging technique that can locate the tumor in prostate. In contrast, the tumor is not visible in the ultrasound image which is used to guide the HIFU planning and therapy. The aim of the Thesis is to provide registration techniques of T2 MRI to ultrasound. Two approaches were explored: 1) Region-based registration. More particularly, we studied an ultrasound texture descriptors based on moments invariant to rotation and scaling. These descriptors are sensitive to speckle distribution regardless of the scale or the orientation. As we expected, some of these descriptors can be used to characterize regions sharing a similar speckle spatial distribution. But, we also found that some other descriptors were sensitive to the contours of these regions. This property seems very useful to adapt the classical boundary-based or mixed region/boundary-based segmentation methods (active contours, graph cut, etc.) to process US images. 2) Surface-based registration approach.. We adapted the Optimal Definition Surface (OSD) method to the segmentation of the prostate in T2 MRI, Furthermore, we proposed the multiple-objects OSD which is a concurrent segmentation of the prostate, bladder and rectum. Finally we used the prostate surface extracted from the ultrasound volume and from T2 MRI in a surface-to-surface elastic registration scheme. This registration allowed us to merge the preoperative MR information in the peroperative US volume.
APA, Harvard, Vancouver, ISO, and other styles
24

Mills-Smith, Laura A. "Eye Gaze Does Not Attenuate Cognitive Load on 14-Month-Olds' Word-Object Associative Learning for Minimal Pairs." Thesis, Virginia Tech, 2013. http://hdl.handle.net/10919/32779.

Full text
Abstract:
It is well established in developmental science that 14-month-old infants have significant difficulty associating pairs of objects with pairs of words that differ by a single phoneme (i.e., minimal pairs). This study used a traditional switch procedure in two experimental conditions (i.e., no face versus face with shifting gaze) to habituate infants with objects and minimal pair labels. Additionally, infantsâ participated in a joint attention task and parents completed questionnaires related to family demographics and infant health and development, to compare to switch task performance. It was expected that infantsâ difficulty with minimal pair associative learning would be replicated in the no face condition. It was also predicted that the addition of a female face and the cues it could provide would abate the challenge that this task typically presents. As a group, infantsâ performances in the two conditions were not significantly different from each other and were not significantly different from chance. Analyses explored the relations between switch performance, joint attention task performance and questionnaire data, resulting in a significant correlation between performance in the face condition of the switch task and number of ear infections (r = .62, p < .05). Taken together, the addition of a female face with shifting gaze to a challenging word learning task does not sufficiently attenuate the cognitive load created by the task. The implications of these results are discussed further.
Master of Science
APA, Harvard, Vancouver, ISO, and other styles
25

Guilbaud, Gaëlle Ghiringhelli Marc. "Conseil minimal de sevrage tabagique par le médecin généraliste point de vue de 406 personnes du pays d'Ancenis /." [S.l.] : [s.n.], 2007. http://castore.univ-nantes.fr/castore/GetOAIRef?idDoc=25716.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Bergougnoux, Quentin. "Co-design et implémentation d’un noyau minimal orienté par sa preuve, et évolution vers les architectures multi-coeur." Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I029/document.

Full text
Abstract:
Avec la croissance majeure de l’Internet des Objets et du Cloud Computing, la sécurité dans ces systèmes est devenue un problème majeur. Plusieurs attaques ont eu lieu dans les dernières années, mettant en avant la nécessité de garanties de sécurité fortes sur ces systèmes. La plupart du temps, une vulnérabilité dans le noyau ou un de ses modules est suffisante pour compromettre l’intégralité du système. Établir et prouver des propriétés de sécurité par le biais d’assistants de preuve semble être un grand pas en avant vers l’apport de garanties de sécurité. Cela repose sur l’utilisation de modèles mathématiques dans le but de raisonner sur leur comportement, et d’assurer que ce dernier reste correct. Cependant, en raison de la base de code importante des logiciels s’exécutant dans ces systèmes, plus particulièrement le noyau, cela n’est pas une tâche aisée. La compréhension du fonctionnement interne de ces noyaux, et l’écriture de la preuve associée à une quelconque propriété de sécurité, est de plus en plus difficile à mesure que le noyau grandit en taille. Dans cette thèse, je propose une nouvelle approche de conception de noyau, le proto-noyau. En réduisant les fonctionnalités offertes par le noyau jusqu’à leur plus minimal ensemble, ce modèle, en plus de réduire au maximum la surface d’attaque, réduit le coût de preuve au maximum. Il permet également à un vaste ensemble de systèmes d’être construits par-dessus, considérant que la minimalité des fonctionnalités comprises dans le noyau oblige les fonctionnalités restantes à être implémentées en espace utilisateur. Je propose également dans cette thèse une implémentation complète de ce noyau, sous la forme du proto-noyau Pip. En ne fournissant que les appels systèmes les plus minimaux et indispensables, l’adaptation du noyau à des usages concrets et la faisabilité de la preuve sont assurées. Afin de réduire le coût de transition modèlevers-binaire, la majorité du noyau est écrite directement en Gallina, le langage de l’assistant de preuve Coq, et est automatiquement convertie en code C compilable pendant la phase de compilation. Pip ne repose alors que sur une fine couche d’abstraction matérielle écrite dans des langages de bas niveau, qui ne fournit que les primitives que le modèle requiert, telles que la configuration du matériel. De plus, étant donné que l’Internet des Objets et le Cloud Computing nécessitent aujourd’hui ces architectures, je propose plusieurs extensions au modèle de Pip afin de supporter le matériel multi-cœur. Soutenus par des implémentations, ces modèles permettent d’apporter le proto-noyau Pip dans les architectures multi-coeur, apportant ainsi des garanties de sécurité fortes dans ces environnement. Enfin, je valide mon approche et son implémentation par le biais d’évaluations de performances et d’une preuve de concept de portage de noyau Linux, démontrant ainsi la flexibilité du proto-noyau Pip dans des environnements réels
Due to the major growth of the Internet of Things and Cloud Computing worlds, security in those systems has become a major issue. Many exploits and attacks happened in the last few years, highlighting the need of strong security guarantees on those systems. Most of the times, a vulnerability in the kernel or one of its modules is enough to compromise the whole system. Etablishing and proving security properties through proof assistants seems to be a huge step towards bringing security guarantees. This relies on using mathematical models in order to reason on their behaviour, and prove the latter remains correct. Still, due to the huge and complex code base of the software running on those systems, especially the kernel, this is a tedious task. Understanding the internals of those kernels, and writing an associated proof on some security property, is more and more difficult as the kernel grows in size. In this thesis, I propose a new approach of kernel design, the proto-kernel. By reducing the features provided by the kernel to their most minimal subset, this model, in addition to lowering the attack surface, reduces the cost of the proof effort. It also allows a wide range of systems to be built on top of it, as the minimality of the features embedded into the kernel causes the remaining features to be built at the userland level. I also provide in this thesis a concrete implementation of this model, the Pip proto-kernel. By providing only the most minimal and mandatory system calls, both the usability of the kernel and the feasibility of the proof are ensured. In order to reduce the model-to-binary transition effort, most of the kernel is written directly in Gallina, the language of the Coq Proof Assistant, and is automatically converted to compilable C code during compilation phase. Pip only relies on a thin hardware abstraction layer written in low-level languages, which provides the operations the model requires, such as modifying the hardware configuration. Moreover, as Internet of Things and Cloud Computing use cases would require, I propose some extensions of Pip’s model, in order to support multicore hardware. Backed up by real implementations, those models bring the Pip proto-kernel to multicore architectures, bringing strong security guarantees in those modern environments. Finally, I validate my approach and its implementation through benchmarks and a Linux kernel port proof-of-concept, displaying the flexibility of the Pip proto-kernel in real world environments
APA, Harvard, Vancouver, ISO, and other styles
27

Bekkouche, Mohammed. "Combinaison des techniques de Bounded Model Checking et de programmation par contraintes pour l'aide à la localisation d'erreurs : exploration des capacités des CSP pour la localisation d'erreurs." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4096/document.

Full text
Abstract:
Un vérificateur de modèle peut produire une trace de contreexemple, pour un programme erroné, qui est souvent difficile à exploiter pour localiser les erreurs dans le code source. Dans ma thèse, nous avons proposé un algorithme de localisation d'erreurs à partir de contreexemples, nommé LocFaults, combinant les approches de Bounded Model Checking (BMC) avec un problème de satisfaction de contraintes (CSP). Cet algorithme analyse les chemins du CFG (Control Flow Graph) du programme erroné pour calculer les sous-ensembles d'instructions suspectes permettant de corriger le programme. En effet, nous générons un système de contraintes pour les chemins du graphe de flot de contrôle pour lesquels au plus k instructions conditionnelles peuvent être erronées. Ensuite, nous calculons les MCSs (Minimal Correction Sets) de taille limitée sur chacun de ces chemins. La suppression de l'un de ces ensembles de contraintes donne un sous-ensemble satisfiable maximal, en d'autres termes, un sous-ensemble maximal de contraintes satisfaisant la postcondition. Pour calculer les MCSs, nous étendons l'algorithme générique proposé par Liffiton et Sakallah dans le but de traiter des programmes avec des instructions numériques plus efficacement. Cette approche a été évaluée expérimentalement sur des programmes académiques et réalistes
A model checker can produce a trace of counter-example for erroneous program, which is often difficult to exploit to locate errors in source code. In my thesis, we proposed an error localization algorithm from counter-examples, named LocFaults, combining approaches of Bounded Model-Checking (BMC) with constraint satisfaction problem (CSP). This algorithm analyzes the paths of CFG (Control Flow Graph) of the erroneous program to calculate the subsets of suspicious instructions to correct the program. Indeed, we generate a system of constraints for paths of control flow graph for which at most k conditional statements can be wrong. Then we calculate the MCSs (Minimal Correction Sets) of limited size on each of these paths. Removal of one of these sets of constraints gives a maximal satisfiable subset, in other words, a maximal subset of constraints satisfying the postcondition. To calculate the MCSs, we extend the generic algorithm proposed by Liffiton and Sakallah in order to deal with programs with numerical instructions more efficiently. This approach has been experimentally evaluated on a set of academic and realistic programs
APA, Harvard, Vancouver, ISO, and other styles
28

Laporte, Sébastien. "Reconstruction 3D du squelette humain pour la biomécanique par radiographie biplane à dose minimale d'irradiation." Paris, ENSAM, 2002. http://www.theses.fr/2002ENAM0024.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Tsarmpopoulos, Iason. "Ingénierie de génome de bactéries minimales par des outils CRISPR/Cas9." Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0787/document.

Full text
Abstract:
Les mycoplasmes sont des bactéries pathogènes, dotées de petits génomes d’environ 1Mbp, avec une faible teneur en G+C. L'intérêt de la communauté scientifique pour ces bactéries a été récemment renouvelé par des avancées dans les domaines de la synthèse et de la transplantation de génomes. Ces nouvelles approches ont ouvert la voie à l'ingénierie génomique à grande échelle des mycoplasmes. Les systèmes CRISPR/Cas sont des systèmes de défense adaptatifs procaryotes contre les acides nucléiques invasifs. Le système CRISPR de Streptococcus pyogenes est composé d’une endonucléase (SpCas9) et de deux CRISPR ARNs (crRNA et tracrRNA) qui dirigent Cas9 vers sa séquence d’ADN cible. La reconnaissance de l’ADN cible se fait par appariement du crRNA et de la présence en aval d’une séquence nommée protospacer adjacent motif (PAM). Apres cette reconnaissance, Cas9 coupe l’ADN cible. A partir de ce système, un outil génétique simplifié composé de Cas9 et d’un ARN guide (gRNA) a été développé pour de nombreux organismes. Le premier objectif de ma thèse était de combiner les méthodes de biologie synthétique de clonage et de la transplantation de génomes avec les outils CRISPR/Cas9 pour l’ingénierie des génomes de mycoplasmes clonés dans la levure. Nous avons réussi à utiliser cette approche pour enlever des gènes et des régions génomiques dans trois espèces: Mycoplasma mycoides subsp. capri (Mmc), M. capricolum subsp. capricolum et M. pneumoniae. Afin de développer un système plus adapté aux mycoplasmes, nous avons ensuite caractérisé le système CRISPR/Cas9 de Mycoplasma gallisepticum (Mg). En utilisant une combinaison d'approches in silico et in vivo, la séquence PAM de MgCas9 a été caractérisée comme NNNAAAA. Nous avons alors entrepris de développer un système CRISPR/Cas minimal de M. gallisepticum pour une utilisation directe dans les cellules de mollicutes: le gène codant MgCas9 a été introduit dans le génome de Mmc, mais son activation avec un gRNA chimère entre le crRNA et le tracrRNA de M. gallisepticum n’a pas été obtenue pour le moment
Mycoplasmas are small pathogenic bacteria that are characterized by reduced genomes of about 1 Mbp with a low G+C content. The interest of the scientific community towards these species has been recently renewed by successful synthesis of their genome and transplantation experiments. These new genetic tools opened the way to further applications and developments for large-scale genome engineering programmes. CRISPR/Cas systems are natural systems that provide bacteria and archaea with an adaptive defense mechanism against invading nucleic acids. The CRISPR system from Streptococcus pyogenes includes an endonuclease (SpCas9) and two CRISPR RNAs (crRNA et tracrRNA) which role are to drive Cas9 to a target sequence. Target recognition depends on a specific pairing of the crRNA and the presence of a motif named protospacer adjacent motif (PAM). After recognition, Cas9 cleaves the targeted DNA. From the natural S. pyogenes system, a simplified genetic tool including Cas9 and a guide RNA (gRNA) was developed for many organisms . The first goal of my thesis was to combine the synthetic biology methods of genome cloning in yeast and back transplantation into recipient cells with a CRISPR/Cas9 tool for efficient engineering of mycoplasma genomes cloned in yeast. We succeeded in removing genes and genomic regions in three different species, Mycoplasma mycoides subsp. capri (Mmc), M. capricolum subsp. capricolum and M. pneumoniae. Then, in order to develop a system optimized for mycoplasma genome editing, we characterized a natural CRISPR/Cas9 system derived from Mycoplasma gallisepticum (Mg). Using a combination of in silico and in vivo approaches, MgCas9 PAM sequence was characterized as NNNAAAA. We then started to develop a minimal CRISPR/Cas system from M. gallisepticum for direct genome editing in mollicutes. Thus we introduced MgCas9 encoding gene in Mmc and tried to activate it with a newly designed gRNA, a chimeric molecule between the crRNA and the tracrRNA of M. gallisepticum, without success yet
APA, Harvard, Vancouver, ISO, and other styles
30

Akéké, Eric Dago. "Classification des singularités minimales de surfaces normales par les discriminants génériques." Aix-Marseille 1, 2005. http://www.theses.fr/2005AIX11030.

Full text
Abstract:
La thèse porte sur les discriminants génériques des singularités de surface analytique complexe normale. Nous rappelons d'abord des résultats bien connus de la théorie des singularités de surfaces normales, en particulier des singularités rationnelles de surfaces. Nous montrons ensuite que pour une famille analytique des singularités de surfaces normales pour lesquelles les discriminants génériques sont équisinguliers, on a les conditions de Whitney. Après avoir rappelé d'après R. Bondil les structures algébriques des discriminants génériques des singularités minimales de surfaces (une sous-classe des singularités rationnelles), nous donnons une preuve combinatoire du lien entre les arbres-limites (introduites par De Jong et Van Straten) et les discriminants génériques des singularités minimales de surfaces normales. On peut donner à partir de ces arbres, des exemples de singularités de surfaces de même discriminant générique et de type topologique distinct.
APA, Harvard, Vancouver, ISO, and other styles
31

Cohen, Emmanuel. "Cartographie, analyse et reconnaissance de réseaux vasculaires par Doppler ultrasensible 4D." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLED046/document.

Full text
Abstract:
Le Doppler ultrasensible est une nouvelle technique d'imagerie ultrasonore permettant d'observer les flux sanguins avec une résolution très fine et sans agent de contraste. Appliquée à l'imagerie microvasculaire cérébrale des rongeurs, cette méthode produit de très fines cartes vasculaires 3D du cerveau à haute résolution spatiale. Ces réseaux vasculaires contiennent des structures tubulaires caractéristiques qui pourraient servir de points de repère pour localiser la position de la sonde ultrasonore et tirer parti des avantages pratiques des appareils à ultrason. Ainsi, nous avons développé un premier système de neuronavigation chez les rongeurs basé sur le recalage automatique d'images cérébrales. En utilisant des méthodes d’extraction de chemins minimaux, nous avons développé une nouvelle méthode isotrope de segmentation pour l’analyse géométrique des réseaux vasculaires en 3D. Cette méthode a été appliquée à la quantification des réseaux vasculaires et a permis le développement d'algorithmes de recalage de nuages de points pour le suivi temporel de tumeurs
Ultrasensitive Doppler is a new ultrasound imaging technique allowing the observation of blood flows with a very fine resolution and no contrast agent. Applied to cerebral microvascular imaging in rodents, this method produces very fine vascular 3D maps of the brain at high spatial resolution. These vascular networks contain characteristic tubular structures that could be used as landmarks to localize the position of the ultrasonic probe and take advantage of the easy-to-use properties of ultrasound devices such as low cost and portability. Thus, we developed a first neuronavigation system in rodents based on automatic registration of brain images. Using minimal path extraction methods, we developed a new isotropic segmentation framework for 3D geometric analysis of vascular networks (extraction of centrelines, diameters, curvatures, bifurcations). This framework was applied to quantify brain and tumor vascular networks, and finally leads to the development of point cloud registration algorithms for temporal monitoring of tumors
APA, Harvard, Vancouver, ISO, and other styles
32

Golshan, Shahram Mohammad-Mehdi. "Photon Exchange Between a Pair of Nonidentical Atoms with Two Forms of Interactions." Thesis, North Texas State University, 1987. https://digital.library.unt.edu/ark:/67531/metadc331447/.

Full text
Abstract:
A pair of nonidentical two-level atoms, separated by a fixed distance R, interact through photon exchange. The system is described by a state vector which is assumed to be a superposition of four "essential states": (1) the first atom is excited, the second one is in the ground state, and no photon is present, (2) the first atom is in its ground state, the second one is excited, and no photon is present, (3) both atoms are in their ground states and a photon is present, and (4) both atoms are excited and a photon is also present. The system is initially in state (1). The probabilities of each atom being excited are calculated for both the minimally-coupled interaction and the multipolar interaction in the electric dipole approximation. For the minimally-coupled interaction Hamiltonian, the second atom has a probability of being instantaneously excited, so the interaction is not retarded. For the multipolar interaction Hamiltonian, the second atom is not excited before the retardation time, which agrees with special relativity. For the minimally-coupled interaction the nonphysical result occurs because the unperturbed Hamiltonian is not the energy operator in the Coulomb gauge. For the multipolar Hamiltonian in the electric dipole approximation the unperturbed Hamiltonian is the energy operator. An active view of unitary transformations in nonrelativistic quantum electrodynamics is used to derive transformation laws for the potentials of the electromagnetic field and the static Coulomb potential. For a specific choice of unitary transformation the transformation laws for the potentials are used in the minimally-coupled second-quantized Hamiltonian to obtain the multipolar Hamiltonian, which is expressed in terms of the quantized electric and magnetic fields.
APA, Harvard, Vancouver, ISO, and other styles
33

Campbell, Joseph Francis. "Gas turbine regenerators: a method for selecting the optimum plate-finned surface pair for minimum core volume." Thesis, Monterey, California. Naval Postgraduate School, 1989. http://hdl.handle.net/10945/25967.

Full text
Abstract:
CIVINS
Based on a power law curve fit for the Soland et al. [2] modification of the Kays-London [1] way to presenting heat exchanger performance, a closed-form solution for sizing counterflow regenerators is derived...
APA, Harvard, Vancouver, ISO, and other styles
34

Batard, Éric. "Apport de l’expérimentation au traitement des infections graves par les cocci à gram positif : corrélations in vitro – in vivo." Nantes, 2005. https://archive.bu.univ-nantes.fr/pollux/show/show?id=78d9ed52-cc49-44f0-8777-7f52c7d75fba.

Full text
Abstract:
Trois travaux distincts ont été réalisés. Premièrement, nous avons montré que la CMI de la télithromycine augmente si elle est mesurée en CO2 pour certaines souches de pneumocoque. Cet antibiotique reste actif dans le sepsis de souris sur les souches sensibles en air ambiant et intermédiaires en CO2. Deuxièmement, nous n’avons pas trouvé de corrélation entre CMI et activité de la teicoplanine dans le sepsis de souris vis-à-vis de 9 souches de S. Epidermidis, alors que nous avons montré une telle corrélation pour la ciprofloxacine vis-à-vis des mêmes souches. Troisièmement, nous n’avons pas constaté de synergie entre quinupristine-dalfopristine et gentamicine vis-à-vis de deux souches de S. Aureus, aussi bien in vitro que dans l’endocardite expérimentale de lapin. A partir de ces expérimentations est discutée la complexité de la relation entre activités in vitro et in vivo des antibiotiques
Three distinct experimentations were led. First, we showed that the MIC of telithromycin for some strains of pneumococcus is higher when measured in CO2 than in ambient air. Telithromycin remains active in the murine sepsis against strains which are susceptible in ambient air and intermediate in CO2. Second, we did not find a correlation between the MIC and in vivo activity of teicoplanin against 9 strains of S. Epidermidis, whereas we found such a correlation for ciprofloxacin against the same strains. Third, we have found no synergy between quinupristin-dalfopristin and gentamicin against S. Aureus, in vitro and in the rabbit endocarditis model. From this data, we discuss the complexity of the relation between in vitro and in vivo activities of antibiotics
APA, Harvard, Vancouver, ISO, and other styles
35

SPAULDING, MESKENS CATHERINE. "Telhepat : banque de donnees informatisee sur l'hepatotoxicite des medicaments accessible par minitel." Toulouse 3, 1988. http://www.theses.fr/1988TOU31252.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Simonnet, Richard. "Amélioration des algorithmes de reconstruction d'image pour la tomographie d'émission par collimation à trous larges et longs." Phd thesis, Université d'Angers, 2010. http://tel.archives-ouvertes.fr/tel-00594594.

Full text
Abstract:
Le projet CACAO - Caméra A Collimation Assistée par Ordinateur - a pour but d'améliorer la qualité des images scintigraphiques. Des collimateurs à trous plus larges et profonds sur les gamma caméras, ainsi qu'un mouvement de balayage supplémentaire dans le protocole d'acquisition permettraient d'améliorer à la fois la résolution spatiale et la sensibilité des caméras; mais cela implique l'utilisation de nouveaux algorithmes de reconstruction. Avant cette thèse, la reconstruction des images CACAO se basait sur un algorithme utilisant pour la déconvolution la transformée de Fourier rapide qui présente un avantage en terme de rapidité et a donné des résultats très intéressants. Cependant un travail basé sur la théorie de l'information nous fait penser qu'il est possible d'obtenir de meilleurs résultats. L'étape limitante du projet étant la déconvolution, le travail de thèse avait pour but d'étudier et d'améliorer cette étape avec de nouveaux algorithmes. Plusieurs algorithmes basés sur une déconvolution appelée minimale avec un traitement ligne par ligne de l'image et l'utilisation de programmation linéaire ont été développés et donnent de bons résultats dans plusieurs cas sur des données exactes. Nous avons ensuite appliqué cette idée au problème dans son ensemble, ce qui donne de bons résultats sur des données exactes et permet également de simplifier la reconstruction. Nous avons aussi effectué la dualisation de nos données qui permet de réduire le temps de calcul et de traiter de plus grandes images. Enfin, nous avons mis au point la déconvolution médiane qui se montre efficace pour des images bruitées.
APA, Harvard, Vancouver, ISO, and other styles
37

Johansson, Siri, and Elin Lethagen. "Barns förmåga till fonemdiskrimination i åldern tre till fem år." Thesis, Linköpings universitet, Logopedi, 2011. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-67135.

Full text
Abstract:
Tal- och språkutvecklingen är beroende av kunskapen om vad som är språkligt relevant i en talström. Detta innebär förmågan att skilja mellan såväl fonem och segment som ord. Vid undersökning av språkförmågan hos ett barn är det viktigt att bedöma både språkperception och språkproduktion. Behovet av ökad kunskap om fonemdiskrimination hos barn i åldern tre till fem år samt behovet av ett småbarnsanpassat, auditivt diskriminationstest motiverar föreliggande studie. Syftet med studien var att undersöka tre- till femåringars förmåga till fonemdiskrimination av minimala par, utifrån de vanligaste paradigmatiska fonologiska förenklingsprocesserna hos barn. Totalt deltog 34 barn i åldrarna 3;2 – 4;10 år. Femtiofem minimala par presenterades för barnen, som ombads peka på benämnt målord. Resultaten indikerar att förmågan till fonemdiskrimination i den undersökta åldersgruppen är svag, då samtliga barn erhöll låga medelvärden för antal rätta svar. Högst medelvärde för antal rätta svar erhölls hos samtliga barn vid testning av distinktionen /s/ - /t/. Skillnaden i medelvärde för distinktionen /s/ - /t/ och övriga distinktioners medelvärden var statistiskt signifikant. De äldre barnen i stickprovet erhöll högre medelvärden inom samtliga fonemdistinktioner, men en signifikant skillnad mellan åldersgrupperna förekom endast för fonemdistinktionen /f/ - /p/. Resultaten diskuteras utifrån ordkunskap, ordpreferenser, fonemposition och bildmaterialets utformning. Studien har bidragit till ökad kunskap kring tre till femåringars förmåga att diskriminera mellan minimala par. En vidareutveckling av testmaterialet kan ge goda förutsättningar för fortsatt användande. Nyckelord: Fonologisk utveckling, fonemdiskrimination, minimala par.
APA, Harvard, Vancouver, ISO, and other styles
38

Aubry, Christophe. "Estimation parametrique par la methode de la distance minimale pour les processus de poisson et de diffusion." Le Mans, 1997. http://www.theses.fr/1997LEMA1005.

Full text
Abstract:
Le but de cette these est d'etudier certains aspects de la theorie asymptotique de l'estimation parametrique. Elle traite de la methode de la distance minimale et de la methode de la distance minimale en moyenne lorsqu'on observe un processus de diffusion faiblement bruite ou un processus de poisson. Le premier chapitre formule des resultats preliminaires. Ce sont des rappels sur les processus de diffusion, les processus de poisson et sur la statistique. Le deuxieme chapitre etablit la normalite suivant une asymptotique particuliere des estimateurs de la distance minimale pour l'observation d'un processus de diffusion. Dans le chapitre 3 est aborde l'estimation de la distance minimale pour l'observation de processus de poisson dont la fonction d'intensite est periodique. On etablit les proprietes de consistence, la forme de la distribution limite de l'estimateur, la convergence des moments et la normalite suivant une asymptotique particuliere. Enfin le chapitre 4 introduit une classe d'estimateurs bayesiens appeles estimateurs de la distance minimale en moyenne. Pour des modeles observes asymptotiquement normaux, on demontre la consistence, la normalite asymptotique et la convergence des moments. On applique ensuite ces resultats a l'observation de processus de diffusion definis comme dans le chapitre 2 et a l'observation de processus de poisson definis comme dans le chapitre 3.
APA, Harvard, Vancouver, ISO, and other styles
39

Pogorelcnik, Romain. "Decomposition by complete minimum separators and applications." Thesis, Clermont-Ferrand 2, 2012. http://www.theses.fr/2012CLF22301/document.

Full text
Abstract:
Nous avons utilisé la décomposition par séparateurs minimaux complets. Pour décomposer un graphe G, il est nécessaire de trouver les séparateurs minimaux dans le graphe triangulé H correspondant. Dans ce contexte, nos premiers efforts se sont tournés vers la détection de séparateurs minimaux dans un graphe triangulé. Nous avons défini une structure, que nous avons nommée 'atom tree'. Cette dernière est inspirée du 'clique tree' et permet d'obtenir et de représenter les atomes qui sont les produits de la décomposition. Lors de la manipulation de données à l'aide de treillis de Galois, nous avons remarqué que la décomposition par séparateurs minimaux permettait une approche de type `Diviser pour régner' pour les treillis de Galois. La détection des gènes fusionnés, qui est une étape importante pour la compréhension de l'évolution des espèces, nous a permis d'appliquer nos algorithmes de détection de séparateurs minimaux complets, qui nous a permis de détecter et regrouper de manière efficace les gènes fusionnés. Une autre application biologique fut la détection de familles de gènes d'intérêts à partir de données de niveaux d'expression de gènes. La structure de `l'atom tree' nous a permis d'avoir un bon outils de visualisation et de gérer des volumes de données importantes
We worked on clique minimal separator decomposition. In order to compute this decomposition on a graph G we need to compute the minimal separators of its triangulation H. In this context, the first efforts were on finding a clique minimal separators in a chordal graph. We defined a structure called atom tree inspired from the clique tree to compute and represent the final products of the decomposition, called atoms. The purpose of this thesis was to apply this technique on biological data. While we were manipulating this data using Galois lattices, we noticed that the clique minimal separator decomposition allows a divide and conquer approach on Galois lattices. One biological application of this thesis was the detection of fused genes which are important evolutionary events. Using algorithms we produced in the course of along our work we implemented a program called MosaicFinder that allows an efficient detection of this fusion event and their pooling. Another biological application was the extraction of genes of interest using expression level data. The atom tree structure allowed us to have a good visualization of the data and to be able to compute large datasets
APA, Harvard, Vancouver, ISO, and other styles
40

Parmentier, Sandy. "Une nouvelle méthode d'estimation du nombre minimum d'individus(NMI) par une approche allométrique : le NMI par exclusions. : applications aux séries ostéologiques de la région Provence-Alpes-Côte d'Azur." Thesis, Aix-Marseille 2, 2010. http://www.theses.fr/2010AIX20698/document.

Full text
Abstract:
L’estimation du Nombre Minimum d’Individus (NMI) constitue une étape essentielle de l’étude des ensembles osseux, à la fois en contexte funéraire et médico-légal. En anthropologie funéraire, cette estimation va permettre d’affiner les profils paléodémographiques mais aussi de proposer de meilleures hypothèses quant à la gestion et l’utilisation de l’espace funéraire, tandis qu’en anthropologie médico-légale, elle revêt un intérêt majeur en vue de l’identification des victimes et des implications judiciaires qui en résultent.Les méthodes actuellement connues permettant d’estimer le NMI possèdent certaines limites dépendantes de la subjectivité des critères utilisés. Considérant ces limites, nous proposons une nouvelle méthode mise en place via une approche biométrique basée sur le principe de l’allométrie. A partir d’une sélection de 136 mesures ostéométriques, nous avons calculé les paramètres de 18360 équations de régressions linéaires permettant d’obtenir la prédiction d’une mesure biométrique à partir d’une autre ainsi que les bornes de l’intervalle de prédiction individuelle à 99% associé.Nous avons élaboré un outil informatique de tests itératifs permettant d’obtenir, à partir de l’exclusion très hautement probable d’appartenance des os à un même individu, une estimation du NMI.Les résultats du NMI par exclusions obtenus dans diverses applications montrent que ce NMI se révèle être particulièrement performant dans de nombreux cas.Au final, nous proposons une nouvelle méthode, objective et fiable, d’estimation du Nombre Minimum d’Individus - le NMI par exclusions - pouvant être utilisée aussi bien en contexte funéraire que dans un cadre médico-légal
Estimation of the Minimum Number of Individuals (MNI) constitutes an essential stage of the study of commingled remains, both in physical and forensic anthropology. In physical anthropology, this estimation allow to improve paleodemographic profiles but also to propose better hypotheses as for the management and the use of the funeral space, whereas in forensic anthropology, it takes a major interest in identification procedures of victims and in the judicial involvement which result from it.Nowadays used methods estimating the MNI possess certain limits dependent on the subjectivity of the used criteria. Considering these limits, we propose a new method organized through a biometric approach based on the allometric principle. From a selection of 136 osteometric measures, we calculated the parameters of 18360 equations of linear regressions allowing us to obtain the prediction of a biometric measure from another one as well as the borders of the interval of individual prediction at 99 %.We elaborated a computer tool of iterative tests allowing to obtain, from the very highly likely exclusion from membership of bones in the same individual, an estimation of the MNI.The results of the MNI by exclusions obtained in different applications show that this NMI is particularly successful in numerous cases.In the final, we propose a new method, objective and reliable, of estimation of the Minimum Number of Individuals - the MNI by exclusions - useful as well in archaeological and forensic context
APA, Harvard, Vancouver, ISO, and other styles
41

Feuvrier, Vincent. "Un résultat d'existence pour les ensembles minimaux par optimisation sur des grilles polyédrales." Phd thesis, Université Paris Sud - Paris XI, 2008. http://tel.archives-ouvertes.fr/tel-00348735.

Full text
Abstract:
Rappelons qu'une partie de Rn est dite minimale si sa mesure de Hausdorff d-dimensionnelle ne peut être rendue plus petite par déformation dans une classe de compétiteurs adaptée. On peut citer comme exemple le problème de Plateau standard, pouvant se réécrire comme celui de trouver un ensemble minimal pour les déformations à support relativement compact dans un domaine, la frontière du domaine jouant alors le rôle d'une condition topologique de bord. Un ensemble quasiminimal au sens d'Almgren n'est pas forcément minimal puisque sa mesure peut décroître après déformation, mais seulement de manière contrôlée relativement à la mesure des points qui ont été déformés. Par exemple le graphe d'une application lipschitzienne de Rd dans Rn-d est quasiminimal et de façon générale, on sait (voir [A]) que les ensembles quasiminimaux sont rectifiables. Lorsqu'on considère la réduction E* d'un ensemble quasiminimal E, qui consiste à prendre le support de la mesure de Hausdorff k-dimensionnelle restreinte à E — en gros en enlevant les points dont la contribution à la mesure de E est nulle — on sait en outre (voir [DS]) que E* contient de grandes images lipschistziennes et est uniformément rectifiable. Une autre propriété remarquable concerne les limites de Hausdorff de suites d'ensembles quasiminimaux réduits. Dans ce contexte, non seulement la limite est quasiminimale et réduite, mais en outre la mesure de Hausdorff est semi-continue inférieurement (voir par exemple [D1]), ce qui n'est généralement pas le cas. Cette propriété fait des limites de suites minimisantes d'ensembles quasiminimaux les candidates idéales à la résolution de problèmes d'existence sous contrainte topologique stable par déformation. On propose ici, dans le cadre d'un problème sur un ouvert en dimension et codimension quelconques, un premier résultat d'existence utilisant une méthode systématique pour construire une suite minimisante d'ensembles quasiminimaux, par minimisation finie sur les sous-faces d-dimensionnelles de grilles polyédrales adaptées. La construction de telles grilles est assez délicate, puisqu'on s'impose à la fois de faire l'approximation polyédrale d'un ensemble rectifiable le long de certains plans tangents pour contrôler l'augmentation de mesure correspondante, tout en gardant un contrôle uniforme sur la régularité des polyèdres de façon à éviter qu'ils ne soient trop plats. Des bornes uniformes sur la forme des polyèdres sont en effet utilisées lors de la discrétisation polyédrale des compétiteurs du problème — mettant en jeu des projections radiales successives sur la frontière des sous-faces de dimension décroissante de n à d — et permettent d'obtenir automatiquement une constante de quasiminimalité ne dépendant que de n et d. La suite d'ensembles quasiminimaux obtenue converge alors en distance de Hausdorff sur tout compact du domaine vers un ensemble minimal — ou presque-minimal dans le cas d'une fonctionnelle Jd h(E) = R hdHd avec une fonction h continue à valeurs dans [1,M]. L'existence de rétractions lipschitziennes sur la limite obtenue (donnée par le théorème de Jean Taylor dans [T] pour le cas d = 2, n = 3) devrait alors permettre d'affirmer que la limite fait encore partie de la classe topologique initiale considérée. Le résultat d'existence pourrait encore se généraliser à certains problèmes sur des variétés sans bord, ou dans une certaine mesure à des domaines fermés pour lesquels on connait une rétraction lipschitzienne d'un voisinage sur le bord.
APA, Harvard, Vancouver, ISO, and other styles
42

Daniel, Benoît. "Sur les surfaces de Bryant et les disques minimaux délimités par trois droites." Paris 7, 2003. http://www.theses.fr/2003PA077150.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Zhang, Yunxin, and 张云鑫. "On the admissible pairs of rational homogeneous manifolds of Picard number 1 and geometric structures defined by their varieties of minimal rational tangents." Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 2014. http://hdl.handle.net/10722/206439.

Full text
Abstract:
In a series of works, Jun-Muk Hwang and Ngaiming Mok have developed a geometric theory of uniruled projective manifolds, especially those of Picard Number 1, relying on the study of Varieties of Minimal Rational Tangents (VMRT) from both the algebro-geometric and the G-structure perspectives. Based on this theory, Ngaiming Mok and Jaehyun Hong studied the standard embedding between two Rational Homogeneous Spaces (RHS) associated to long simple roots which are of different dimensions. In this thesis, I consider admissible pairs of RHS (X0, X) of Picard number 1 and locally closed complex submanifolds S ⊂ X inheriting VMRT sub-structures modeled on X0 = G0/P0 ⊂ X = G/P de_ned by taking intersections of VMRT of X with tangent space of S. Moreover, if any such S modeled on (X0, X) is necessarily the image of a standard embedding i : X0 → X, (X0, X) is said to be rigid. In this thesis, it is proved that an admissible pair (X0, X) is rigid whenever X is associated to a long simple root and X0 is non-linear and de_ned by a marked Dynkin sub-diagram. In the case of the pair (S0, S) of compact Hermitian Symmetric Spaces (cHSS), all the admissible pairs (S0, S) are completely classified. Based on this classification, a sufficient condition for the pair (S0, S) to be non-rigid is established through explicitly constructing a submanifold S ⊂ S such that S can never be obtained from the image of any standard embedding i : S0 → S. Besides, the term special pair is coined for those (S0; S) sorted out through classification, and the algebraicity of submanifolds modeled on special pairs is confirmed by checking a modified form of the non-degeneracy condition defined by Hong and Mok is satisfied. However, the question as to whether these special pairs are rigid, as pointed out in this thesis, remains to be investigated. Finally, pairs of hyperquadrics (Q^n, Q^m) are studied separately. Since non-rigidity is trivial, in these cases it is interesting to establish a characterization of the standard embedding i : Q^n→Q^m under some stronger condition. In this thesis, the latter problem is solved in terms of the partial vanishing of second fundamental forms.
published_or_final_version
Mathematics
Doctoral
Doctor of Philosophy
APA, Harvard, Vancouver, ISO, and other styles
44

Fromont, Magalie. "Quelques problèmes de sélection de modèles : construction de tests adaptatifs, ajustement de pénalités par des méthodes de bootstrap." Paris 11, 2003. http://www.theses.fr/2003PA112276.

Full text
Abstract:
L'approche non asymptotique de la sélection de modèles par pénalisation initialement proposée par Birgé et Magsart pour l'estimation adaptative a pu s'appliquer à de nombreux problèmes statistiques. Cette thèse, consacrée à la construction de tests adaptatifs et de règles de classification dans des cadres non paramétriques, s'inscrit précisément dans cette lignée. Dans une première partie, nous considérons le cadre d'un modèle de densité, où la densité s est supposée appartenir à L2(R). Nous proposons des tests d'adéquation de s à une densité donnée ou à une famille de translation/échelle. Nous décrivons des classes d'alternatives pour lesquelles ces tests ont une puissance prescrite, puis nous montrons qu'ils sont adaptatifs au sens du minimax (à un éventuel facteur logarithmique près) sur des classes de Holder ou des boules de Besov. Une deuxième partie, motivée par une application en vibrométrie laser, traite du problème de la détection d'un signal périodique dans le cadre d'un modèle de régression gaussienne de design régulier. Après une étude des vitesses de séparation minimax sur des boules de l'espace de Sobolev périodique à variance connue, nous présentons un test valable à période et variance inconnues et adaptatif (à un facteur logarithmique près) sur ces boules de Sobolev. Dans une troisième partie, nous envisageons le cadre plus atypique de la classification binaire. Nous construisons de nouvelles règles de classification par minimisation d'un critère défini comme la somme de l'erreur de classification empirique et d'un terme de pénalité basé sur des échantillons bootstrap des observations. Ces règles vérifient des inégalités de type "oracle" et atteignent le risque minimax global sur les classes de Vapnik-Chervonenkis. Les méthodes développées dans cette thèse s'inspirent de la théorie des processus empiriques. Chaque résultat théorique avancé est par ailleurs illustré par une étude expérimentale
The nonasymptotic approach to model selection by penalization for adaptive estimation, as initially proposed by Birgé and Massart, has been adapted to numerous statistical problems. This thesis, which is devoted to the construction of adaptive tests and classification rules in nonparametric frameworks, further developes this line of research. In the first section, we consider a density model, where the density s is assumed to belong to L2(R). We propose some goodness-of-fit tests of hypotheses such as "s equals some given density" or "s belongs to some translation/scale family". We describe classes of alternatives over which these tests have a prescribed power. Then we prove that they are adaptive in the minimax sense (up to a possible logarithmic factor) over Hölder classes or Besov balls. The second section, motivated by an application to laser vibrometry, deals with the problem of periodic signal detection in a Gaussian fixed design regression model. After studying the minimax separation rates over some periodic Sobolev balls when the variance is known, we present a testing procedure available when the variance and the period are unknown, and adaptive (up to a logarithmic factor) over the considered Sobolev balls. In the third section, we consider the binary classification framework. We build new classification rules by minimizing the sum of the empirical classification error and a penalty term based on bootstrap samples of the observations. The obtained rules satisfy "oracle" type inequalities and achieve the global minimax risk over Vapnik-Chervonenkis classes. The methods developed in this thesis are inspired by the empirical processes theory. Each theoretical result is furthermore illustrated by an experimental study
APA, Harvard, Vancouver, ISO, and other styles
45

Martins, Maisa Jussara. "Estudo acústico da pronúncia de pares mínimos vocálicos do inglês por falantes nativos, professores brasileiros e alunos de nível intermediário e avançado /." Araraquara : [s.n.], 2011. http://hdl.handle.net/11449/91302.

Full text
Abstract:
Orientador: Luiz Carlos Cagliari
Banca: Paula Tavares Pinto Paiva
Banca: Larissa Cristina Berti
Resumo: O presente trabalho de mestrado refere-se a um estudo acústico de pronúncia, que tem como principal objetivo verificar e analisar, por meio de registros de fala de professores brasileiros, de alunos de língua inglesa em nível intermediário e avançado, e de falantes nativos americanos, a maneira como esses indivíduos realizam os pares mínimos vocálicos /i/ e /I/, /E/ e /Q/. O primeiro critério de análise foi a aplicação de um questionário aos professores e alunos participantes; por meio dele, foi possível traçar as competências dos docentes e definir a atuação dos discentes como alunos de inglês; ademais, foi possível encaixá-los nos níveis de proficiência determinados pela escola onde os dados foram coletados. Com relação aos critérios acústicos, foram utilizados os seguintes parâmetros: o valor das freqüências de F1 e F2 das vogais produzidas pelos sujeitos participantes, sendo possível verificar o movimento de avanço / recuo e levantamento / abaixamento do corpo da língua durante a articulação dos segmentos; a diferença formântica entre F1 e F2, parâmetro que melhor define o grau de posterioridade de um som vocálico; e, por fim, a duração dos segmentos, parâmetro acústico essencial para a distinção entre as vogais analisadas. Sobre a metodologia de pesquisa, foram gravados 28 sujeitos: dois americanos nativos, dois professores brasileiros de inglês e 24 alunos brasileiros de uma escola de idiomas localizada em São José do Rio Preto (SP). Foi pedido para que cada indivíduo repetisse os pares de palavras cheap / chip e beg / bag três vezes (nesses vocábulos, realizam-se as vogais /i/ e /I/, /E/ e /Q/). Por meio das gravações, foi possível realizar a medição da freqüência dos formantes F1 e F2 das vogais produzidas por eles, bem como a medição da duração de cada som vocálico. A repetição por três vezes dos pares mínimos... (Resumo completo, clicar acesso eletrônico abaixo)
Abstract: This master paper is an acoustic study of pronunciation, whose main goal is verify and analyze, through speech data of Brazilian teachers, intermediate and advanced students of English, and American native speakers, the way these people produce the vocalic minimal pairs /i/ and /I/, /E/ and /Q/. The first criterion of analysis was related to a questionnaire answered by the teachers and the students; this questionnaire allowed the researcher to define the teachers' competences and the learners' behavior as English students; besides, it was possible to fit them into the levels of proficiency determined by the school where the data was collected. Regarding the acoustic criteria, the following fundamental parameters were taken into consideration: F1 and F2 frequency values of vowels produced by the participants, in which it was possible to verify the tongue movements, associated with advancement and height, during the segmental articulation; the formant differences between F1 and F2, which better defines the posterior position of a vowel; and, finally, the segmental duration, which is an important acoustic parameter to distinguish the analyzed vowels. Concerning the research methodology, 28 people were recorded: two native Americans, two Brazilian English teachers and 24 Brazilian students from a language school located in São José do Rio Preto (SP). Each person had to repeat the pair of words cheap / chip and beg / bag for three times (in such words, the vowels /i/ and /I/, /E/ and /Q/ are expected to occur). With the recordings, it was possible to measure F1 and F2 frequencies of the vowels produced by the participants, as well as the duration of each vocalic sound. In the analyses, the absolute values of the formants and duration were not taken into consideration but an arithmetic average of the values from the three utterances of each case. It was concluded that the Brazilian... (Complete abstract click electronic access below)
Mestre
APA, Harvard, Vancouver, ISO, and other styles
46

Saumard, Adrien. "Estimation par Minimum de Contraste Régulier et Heuristique de Pente en Sélection de Modèles." Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00569372.

Full text
Abstract:
Cette thèse est consacrée à l'étude théorique d'une méthode de calibration automatique des pénalités en sélection de modèles. Cette méthode se base sur une heuristique, appelée "heuristique de pente", qui stipule l'existence d'une pénalité minimale telle que la solution optimale du problème de pénalisation vaut deux fois celle-ci. En pratique, on estime la pénalité optimale en estimant préalablement la pénalité minimale, caractérisée par un changement brutal dans le comportement de la procédure de sélection de modèles autour de ce seuil de pénalisation. L'analyse théorique du phénomène de pente se base sur un contrôle à la constante près des déviations de l'excès de risque et de l'excès de risque empirique des estimateurs considérés, mesurant respectivement leur performance en prédiction et leur performance empirique. Ceci suggère en premier lieu, une forte spécification de la structure du problème étudié. Nous validons l'heuristique de pente dans un cadre général qui s'articule autour d'une notion nouvelle en M-estimation, que nous appelons "contraste régulier", et nous développons une méthodologie de preuve inédite, permettant de traiter à la fois la question des bornes supérieures et des bornes inférieures de déviation des excès de risque à modèle fixé. Nous retrouvons ainsi la plupart des résultats déjà connus sur l'heuristique de pente. En effet, nous donnons trois exemples d'estimation par minimum de contraste régulier, à savoir la régression par moindres carrés sur des modèles linéaires, l'estimation de la densité par moindres carrés sur des modèles affines et l'estimation de la densité par maximum de vraisemblance sur des ensembles convexes. Ceci nous permet d'étendre les résultats précédemment établis dans le cas de la régression à des modèles plus généraux et de valider l'heuristique de pente pour un risque non quadratique en considérant le cas de l'estimation par maximum de vraisemblance. Enfin, notre méthodologie de preuve fournit des pistes précises de recherche pour des situations non régulières, comme on en trouve en classification ou plus généralement en théorie de l'apprentissage statistique.
APA, Harvard, Vancouver, ISO, and other styles
47

Nonnon, Philippe. "Contribution à l'étude d'un redresseur à MLI à perturbations minimales du réseau." Vandoeuvre-les-Nancy, INPL, 1991. http://www.theses.fr/1991INPL005N.

Full text
Abstract:
Une étude d'un convertisseur à commutation forcée de structure tension connecte à réseau triphasé impédant est presenté. Deux aspects sont traités : d'une part le contrôle du facteur de puissance et d'autre part les caractéristiques harmoniques des grandeurs électriques sur le réseau. Dans cette optique, nous examinons dans un premier temps les principes de commande du convertisseur. Nous passons en revue les différentes commandes à modulation de largeur d'impulsions permettant de contrôler la distorsion harmonique. Puis nous montrons comment régler les échanges de puissances active et réactive entre le réseau alternatif et la charge continue. Nous considérons par la suite les asservissements de ces derniers. Deux types de contrôle sont présentés avec dans chaque cas une étude de stabilité. Enfin les caractéristiques harmoniques des grandeurs réseaux sont examinées en fonction des différents types de commande MLI. Une comparaison des différents spectres avec ceux obtenus pour un redresseur classique à thyristors conclue cette étude. L'ensemble des résultats présentés ont été obtenus par simulation numérique du système complet. La modélisation et le principe de simulation sont présentés à partir de la méthodologie générale de simulation Gaspe développée dans notre laboratoire
APA, Harvard, Vancouver, ISO, and other styles
48

Mullis, Ricky. "Development of an individualised patient-centred instrument to measure minimum clinically important fifference in low back pain." Thesis, Keele University, 2007. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.487306.

Full text
Abstract:
LoW back pain is a commo'n, recurrent problem, with many sufferers going on to develop long-term disability and work absence. A number of potential patho- ' anatomical pathways may give rise to low back pain, although the aetiology of a specific episode is often unclear. Management options range from simple analgesia and physiotherapy, to major spinal surgery.Clinical trials often fail to show significant long term differences in outcome between treatment options for low back pain. Measuring the course of this fluctuating condition is problematic, and often what matters to patients is not reflected in standardised clinical outcomes. This thesis describes the development of an individualised approach to outcome measurement which captures changes that are important to patients with low back pain.
APA, Harvard, Vancouver, ISO, and other styles
49

Zhou, Yang. "Development of a CMOS pixel sensor for embedded space dosimeter with low weight and minimal power dissipation." Thesis, Strasbourg, 2014. http://www.theses.fr/2014STRAE021/document.

Full text
Abstract:
Cette thèse porte sur le développement d'un capteur de pixel monolithique CMOS utilisé pourl’identification et le comptage des particules ionisés dan l’espace avec un flux élevé. Un nouveauconcept pour l’identification de l’espèce des particules proposé dans la présente étude, est basésur l'analyse des amas de particules déclenchés. Pour valider ce nouveau concept, un capteur detaille complet, qui comprend la matrice de pixel sensible aux particules ionisés signal, une chaînede traitement du signal analogique, un convertisseur analogue numérique de 3 bits, et untraitement du signal numérique a été conçu dans un processus de 0.35 μm. Le capteur sortiedirectement des informations de flux à travers 4 canaux avec un débit de données très faible(80 bps) et dissipation d’énergie minimale (~ 100 mW). Chaque canal représente particules avecdifférentes espèces et les énergies. La densité maximum de flux mesurable est jusqu'à 108particules/cm2/s (coups s'accumulent < 5%). Un prototype à échelle réduite a été fabriqué et testéavec trois types d'illumination de rayonnement (rayons X, les électrons et laser infrarouge). Tousles résultats obtenus valident le nouveau concept proposé. Un moniteur de rayonnement spatialtrès miniaturisé basé sur un capteur de pixel CMOS peut être prévu. Le moniteur peut présente lesmêmes performances que les compteurs actuels, mais avec une dissipation de puissance réduited'un ordre de grandeur qu'un poids, un volume d'encombrement et un coût moindre. En outre, enraison de ses sorties de haut niveau et faible débit de données, aucune traitement supplémentairedu signal dehors du capteur est nécessaire, ce qui le rend particulièrement attrayant pour desapplications dan les petits satellitaires
This thesis focuses on the development of a CMOS monolithic pixel sensor used for space ionizingparticles identification and counting in high flux. A new concept for single particle identification isproposed in this study, which is based on the analysis of particle triggered clusters. To validate thisnew concept, a full size sensor including the sensitive pixel matrix, an analogue signal processingchain, a 3-bit analogue to digital converter, and a digital processing stage was designed in a 0.35μm process. The sensor directly output particles flux information through 4 channels with a verylow data rate (80 bps) and minimal power dissipation (~ 100mW). Each channel representsparticles with different species and energies. The highest measurable flux density is up to 108particles/cm2/s (hits pile up < 5%). A reduced scale prototype was fabricated and tested with 3types of radiation illumination (X-ray, electrons and infrared laser). All the results obtained validatethe proposed new concept and a highly miniaturized space radiation monitor based on a singleCMOS pixel sensor could be foreseen. The monitor could provide measurements of comparable orbetter quality than existing instruments, but at around an order of magnitude lower powerconsumption, mass and volume and a lower unit cost. Moreover, due to its high level and low datarate outputs, no signal treatment power aside the sensor is required which makes it especiallyattractive for small satellite application
APA, Harvard, Vancouver, ISO, and other styles
50

Ernenwein, Jean-Pierre. "Contribution à la recherche du boson de Higgs standard et non minimal par les canaux H0e+e- et H0μ+μ- dans l'expérience L3 à LEP." Lyon 1, 1997. http://www.theses.fr/1997LYO10011.

Full text
Abstract:
Cette these s'inscrit dans le cadre de l'experience l3 installee sur le collisionneur e#+-e#- lep au cern, avec s mz. Le cadre theorique de notre recherche est le secteur higgs du modele standard, et celui du modele standard supersymetrique minimal (mssm). Les consequences des variations des parametres de ce modele sur les couplages du boson de higgs avec les autres particules sont etudiees. La partie essentielle du memoire est consacree a la recherche du boson de higgs par le processus de ioffe khoze bjorken : e#+e#- z h#0z#*, avec les desintegrations z#* e#+e#- et #+#-. Des algorithmes de recherche sont realises et appliques sur les donnees 1991-1995 ( 3. 6 millions de z). Seuls quatre evenements de masse superieure a 40 gev sont selectionnes, compatibles avec le bruit de fond attendu. Une limite inferieure a la masse du boson de higgs standard est ainsi estimee (53 gev a 95% de confiance), de meme que des zones de valeurs de parametres non standards sont exclues. Une etude des desintegrations invisibles (non standards) du boson de higgs dans la voie z#* e#+e#- complete ce travail. Enfin, nous menons une etude prospective dans la voie electrons, qui montre la faisabilite de la poursuite de cette recherche dans le cadre des energies futures du lep.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography