To see the other types of publications on this topic, follow the link: Données négatives.

Dissertations / Theses on the topic 'Données négatives'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 19 dissertations / theses for your research on the topic 'Données négatives.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Papon, Pierre-Antoine. "Extraction optimisée de règles d'association positives et négatives intéressantes." Thesis, Clermont-Ferrand 2, 2016. http://www.theses.fr/2016CLF22702/document.

Full text
Abstract:
L’objectif de la fouille de données consiste à extraire des connaissances à partir de grandes masses de données. Les connaissances extraites peuvent prendre différentes formes. Dans ce travail, nous allons chercher à extraire des connaissances uniquement sous la forme de règles d’association positives et de règles d’association négatives. Une règle d’association négative est une règle dans laquelle la présence ainsi que l’absence d’une variable peuvent être utilisées. En considérant l’absence des variables dans l’étude, nous allons élargir la sémantique des connaissances et extraire des informations non détectables par les méthodes d’extraction de règles d’association positives. Cela va par exemple permettre aux médecins de trouver des caractéristiques qui empêchent une maladie de se déclarer, en plus de chercher des caractéristiques déclenchant une maladie. Cependant, l’ajout de la négation va entraîner différents défis. En effet, comme l’absence d’une variable est en général plus importante que la présence de ces mêmes variables, les coûts de calculs vont augmenter exponentiellement et le risque d’extraire un nombre prohibitif de règles, qui sont pour la plupart redondantes et inintéressantes, va également augmenter. Afin de remédier à ces problèmes, notre proposition, dérivée de l’algorithme de référence A priori, ne va pas se baser sur les motifs fréquents comme le font les autres méthodes. Nous définissons donc un nouveau type de motifs : les motifs raisonnablement fréquents qui vont permettre d’améliorer la qualité des règles. Nous nous appuyons également sur la mesure M G pour connaître les types de règles à extraire mais également pour supprimer des règles inintéressantes. Nous utilisons également des méta-règles nous permettant d’inférer l’intérêt d’une règle négative à partir d’une règle positive. Par ailleurs, notre algorithme va extraire un nouveau type de règles négatives qui nous semble intéressant : les règles dont la prémisse et la conclusion sont des conjonctions de motifs négatifs. Notre étude se termine par une comparaison quantitative et qualitative aux autres algorithmes d’extraction de règles d’association positives et négatives sur différentes bases de données de la littérature. Notre logiciel ARA (Association Rules Analyzer ) facilite l’analyse qualitative des algorithmes en permettant de comparer intuitivement les algorithmes et d’appliquer en post-traitement différentes mesures de qualité. Finalement, notre proposition améliore l’extraction au niveau du nombre et de la qualité des règles extraites mais également au niveau du parcours de recherche des règles
The purpose of data mining is to extract knowledge from large amount of data. The extracted knowledge can take different forms. In this work, we will seek to extract knowledge only in the form of positive association rules and negative association rules. A negative association rule is a rule in which the presence and the absence of a variable can be used. When considering the absence of variables in the study, we will expand the semantics of knowledge and extract undetectable information by the positive association rules mining methods. This will, for example allow doctors to find characteristics that prevent disease instead of searching characteristics that cause a disease. Nevertheless, adding the negation will cause various challenges. Indeed, as the absence of a variable is usually more important than the presence of these same variables, the computational costs will increase exponentially and the risk to extract a prohibitive number of rules, which are mostly redundant and uninteresting, will also increase. In order to address these problems, our proposal, based on the famous Apriori algorithm, does not rely on frequent itemsets as other methods do. We define a new type of itemsets : the reasonably frequent itemsets which will improve the quality of the rules. We also rely on the M G measure to know which forms of rules should be mined but also to remove uninteresting rules. We also use meta-rules to allow us to infer the interest of a negative rule from a positive one. Moreover, our algorithm will extract a new type of negative rules that seems interesting : the rules for which the antecedent and the consequent are conjunctions of negative itemsets. Our study ends with a quantitative and qualitative comparison with other positive and negative association rules mining algorithms on various databases of the literature. Our software ARA (Association Rules Analyzer ) facilitates the qualitative analysis of the algorithms by allowing to compare intuitively the algorithms and to apply in post-process treatments various quality measures. Finally, our proposal improves the extraction in the number and the quality of the extracted rules but also in the rules search path
APA, Harvard, Vancouver, ISO, and other styles
2

Saurel, Claire. "Contribution aux systèmes experts : développement d'un cas concret et étude du problème de la génération d'explications négatives." Toulouse, ENSAE, 1987. http://www.theses.fr/1987ESAE0008.

Full text
Abstract:
La première partie concerne le problème de l'aide à la réutilisation de logiciels existants. Une étude de système expert est réalisée, suivie de la conception d'une maquette appliquée au domaine du calcul scientifique. Dans le cadre de l'experimentation de cette maquette, le problème des explications négatives a été soulevé. Une méthode de génération d'explications négatives structurées par niveaux de détails, basée sur une représentation de la résolution par un arbre et-ou a été proposée.
APA, Harvard, Vancouver, ISO, and other styles
3

Vo, Xuan Thanh. "Apprentissage avec la parcimonie et sur des données incertaines par la programmation DC et DCA." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0193/document.

Full text
Abstract:
Dans cette thèse, nous nous concentrons sur le développement des méthodes d'optimisation pour résoudre certaines classes de problèmes d'apprentissage avec la parcimonie et/ou avec l'incertitude des données. Nos méthodes sont basées sur la programmation DC (Difference of Convex functions) et DCA (DC Algorithms) étant reconnues comme des outils puissants d'optimisation. La thèse se compose de deux parties : La première partie concerne la parcimonie tandis que la deuxième partie traite l'incertitude des données. Dans la première partie, une étude approfondie pour la minimisation de la norme zéro a été réalisée tant sur le plan théorique qu'algorithmique. Nous considérons une approximation DC commune de la norme zéro et développons quatre algorithmes basées sur la programmation DC et DCA pour résoudre le problème approché. Nous prouvons que nos algorithmes couvrent tous les algorithmes standards existants dans le domaine. Ensuite, nous étudions le problème de la factorisation en matrices non-négatives (NMF) et fournissons des algorithmes appropriés basés sur la programmation DC et DCA. Nous étudions également le problème de NMF parcimonieuse. Poursuivant cette étude, nous étudions le problème d'apprentissage de dictionnaire où la représentation parcimonieuse joue un rôle crucial. Dans la deuxième partie, nous exploitons la technique d'optimisation robuste pour traiter l'incertitude des données pour les deux problèmes importants dans l'apprentissage : la sélection de variables dans SVM (Support Vector Machines) et le clustering. Différents modèles d'incertitude sont étudiés. Les algorithmes basés sur DCA sont développés pour résoudre ces problèmes
In this thesis, we focus on developing optimization approaches for solving some classes of optimization problems in sparsity and robust optimization for data uncertainty. Our methods are based on DC (Difference of Convex functions) programming and DCA (DC Algorithms) which are well-known as powerful tools in optimization. This thesis is composed of two parts: the first part concerns with sparsity while the second part deals with uncertainty. In the first part, a unified DC approximation approach to optimization problem involving the zero-norm in objective is thoroughly studied on both theoretical and computational aspects. We consider a common DC approximation of zero-norm that includes all standard sparse inducing penalty functions, and develop general DCA schemes that cover all standard algorithms in the field. Next, the thesis turns to the nonnegative matrix factorization (NMF) problem. We investigate the structure of the considered problem and provide appropriate DCA based algorithms. To enhance the performance of NMF, the sparse NMF formulations are proposed. Continuing this topic, we study the dictionary learning problem where sparse representation plays a crucial role. In the second part, we exploit robust optimization technique to deal with data uncertainty for two important problems in machine learning: feature selection in linear Support Vector Machines and clustering. In this context, individual data point is uncertain but varies in a bounded uncertainty set. Different models (box/spherical/ellipsoidal) related to uncertain data are studied. DCA based algorithms are developed to solve the robust problems
APA, Harvard, Vancouver, ISO, and other styles
4

Froidefond, Claudine. "Syphilis congénitale : à propos d'une observation à IGM initialement négatives chez un enfant adopté, avec syndrome néphrotique, anémie pseudoleucémique, neuro-syphilis, atteinte hépatique et osseuse : mise au point sur les données de la littérature." Bordeaux 2, 1991. http://www.theses.fr/1991BOR2M106.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Benhalouche, Fatima Zohra. "Méthodes de démélange et de fusion des images multispectrales et hyperspectrales de télédétection spatiale." Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30083/document.

Full text
Abstract:
Au cours de cette thèse, nous nous sommes intéressés à deux principales problématiques de la télédétection spatiale de milieux urbains qui sont : le "démélange spectral " et la "fusion". Dans la première partie de la thèse, nous avons étudié le démélange spectral d'images hyperspectrales de scènes de milieux urbains. Les méthodes développées ont pour objectif d'extraire, d'une manière non-supervisée, les spectres des matériaux présents dans la scène imagée. Le plus souvent, les méthodes de démélange spectral (méthodes dites de séparation aveugle de sources) sont basées sur le modèle de mélange linéaire. Cependant, lorsque nous sommes en présence de paysage non-plat, comme c'est le cas en milieu urbain, le modèle de mélange linéaire n'est plus valide et doit être remplacé par un modèle de mélange non-linéaire. Ce modèle non-linéaire peut être réduit à un modèle de mélange linéaire-quadratique/bilinéaire. Les méthodes de démélange spectral proposées sont basées sur la factorisation matricielle avec contrainte de non-négativité, et elles sont conçues pour le cas particulier de scènes urbaines. Les méthodes proposées donnent généralement de meilleures performances que les méthodes testées de la littérature. La seconde partie de cette thèse à été consacrée à la mise en place de méthodes qui permettent la fusion des images multispectrale et hyperspectrale, afin d'améliorer la résolution spatiale de l'image hyperspectrale. Cette fusion consiste à combiner la résolution spatiale élevée des images multispectrales et la haute résolution spectrale des images hyperspectrales. Les méthodes mises en place sont des méthodes conçues pour le cas particulier de fusion de données de télédétection de milieux urbains. Ces méthodes sont basées sur des techniques de démélange spectral linéaire-quadratique et utilisent la factorisation en matrices non-négatives. Les résultats obtenus montrent que les méthodes développées donnent globalement des performances satisfaisantes pour la fusion des données hyperspectrale et multispectrale. Ils prouvent également que ces méthodes surpassent significativement les approches testées de la littérature
In this thesis, we focused on two main problems of the spatial remote sensing of urban environments which are: "spectral unmixing" and "fusion". In the first part of the thesis, we are interested in the spectral unmixing of hyperspectral images of urban scenes. The developed methods are designed to unsupervisely extract the spectra of materials contained in an imaged scene. Most often, spectral unmixing methods (methods known as blind source separation) are based on the linear mixing model. However, when facing non-flat landscape, as in the case of urban areas, the linear mixing model is not valid any more, and must be replaced by a nonlinear mixing model. This nonlinear model can be reduced to a linear-quadratic/bilinear mixing model. The proposed spectral unmixing methods are based on matrix factorization with non-negativity constraint, and are designed for urban scenes. The proposed methods generally give better performance than the tested literature methods. The second part of this thesis is devoted to the implementation of methods that allow the fusion of multispectral and hyperspectral images, in order to improve the spatial resolution of the hyperspectral image. This fusion consists in combining the high spatial resolution of multispectral images and high spectral resolution of hyperspectral images. The implemented methods are designed for urban remote sensing data. These methods are based on linear-quadratic spectral unmixing techniques and use the non-negative matrix factorization. The obtained results show that the developed methods give good performance for hyperspectral and multispectral data fusion. They also show that these methods significantly outperform the tested literature approaches
APA, Harvard, Vancouver, ISO, and other styles
6

Pannetier, Benjamin. "Fusion de données pour la surveillance du champ de bataille." Phd thesis, Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00377247.

Full text
Abstract:
Dans le domaine de la surveiIlance du champ de bataille, la poursuite de cibles terrestres est un point crucial pour évaluer le comportement des forces présentent sur le théâtre des opérations. Cette poursuite peut être menée à partir des capteurs aéroportés GMTI (Ground Moving Target Indicator) qui détectent tous les objets en mouvement. Toutefois, les techniques classiques de trajectographie ne permettent pas d'établir une situation fiable de la scène. Cependant, avec le développement et la fiabilité des systèmes d'information géographique, il devient possible de fusionner les données GMTI avec toute l'information contextuelJe pour améliorer le pistage. Le travail présenté dans cette thèse s'intéresse à l'intégration de l'information cartographique dans les techniques usueIJes de trajectographie. Le réseau routier est alors considéré comme une contrainte et un algorithme IMM à structure variable, pour s'adapter à la topologie du réseau, est présenté et testé sur données simulées. L'algorithme prend en entrée la position des plots MTI mais aussi la vitesse radiale des plots. Lorsque cette dernière est éloignée statistiquement de la vitesse radiale prédite, le système risque de ne pas associer le plot à la piste et de perdre cette dernière. Dans ce cas, un facteur d'oubli momentané est utilisé afin d'éviter la perte de la piste. De plus, la problématique des entrées et sorties de route pour le pi stage d'objets d'intérêts est traitée en activant ou désactivant les modèles dynamiques sous contraintes. Par ailleurs, nous proposons une approche pour considérer l'information négative (i.e. absence de détection) suivant la nature du terrain et améliorer la continuité du pi stage
APA, Harvard, Vancouver, ISO, and other styles
7

Rousset, Florian. "Single-pixel imaging : Development and applications of adaptive methods." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEI096/document.

Full text
Abstract:
L'imagerie mono-pixel est un concept récent qui permet l'obtention d'images à un coût relativement faible par une compression des données durant l'acquisition. L'architecture d'une caméra mono-pixel comprend seulement deux éléments, un modulateur spatial de la lumière et un détecteur ponctuel. L'idée est de mesurer, au niveau du détecteur, la projection de la scène observée -l'image- avec un certain motif. Le post-traitement d'une séquence de mesures obtenues avec différents motifs permet de restaurer l'image de la scène. L'imagerie mono-pixel possède plusieurs avantages qui sont d'un intérêt pour différentes applications, en particulier dans le domaine biomédical. Par exemple, une caméra mono-pixel résolue en temps bas coût est bénéfique pour l'imagerie de temps de vie de fluorescence. Un tel système peut également être couplé à un spectromètre afin de compléter le temps de vie avec une information spectrale. Cependant, la limite principale de l'imagerie mono-pixel est la vitesse d'acquisition et/ou de l'étape de restauration d'image qui est, à ce jour, non compatible avec des applications temps réel. Le but de cette thèse est de développer des méthodes rapides d'acquisition et de restauration des images à visée d'applications biomédicales. Tout d'abord, une stratégie d'acquisition basée sur les algorithmes de compression dans le domaine ondelettes est proposée. Celle-ci accélère le temps de restauration de l'image par rapport aux schémas d'acquisition classiques basés sur l'acquisition comprimée. Dans un second temps, une nouvelle méthode pour lever une contrainte expérimentale de positivité sur les motifs est détaillée. Comparée aux approches classiques, cette méthode basée sur une factorisation en matrices non-négatives permet de diviser par deux le nombre de motifs envoyés au modulateur spatial de la lumière, entrainant ainsi une division par deux du temps d'acquisition total. Enfin, l'applicabilité de ces techniques est démontrée pour de l'imagerie multispectrale et/ou résolue en temps, modalités courantes dans le domaine biomédical
Single-pixel imaging is a recent paradigm that allows the acquisition of images at a reasonably low cost by exploiting hardware compression of the data. The architecture of a single-pixel camera consists of only two elements, a spatial light modulator and a single point detector. The key idea is to measure, at the detector, the projection (i.e., inner product) of the scene under view -the image- with some patterns. The post-processing of a measurements sequence obtained with different patterns permits to restore the desired image. Single-pixel imaging has several advantages, which are of interest for different applications, especially in the biomedical field. In particular, a time-resolved single-pixel imaging system benefits to fluorescence lifetime sensing. Such a setup can be coupled to a spectrometer to supplement lifetime with spectral information. However, the main limitation of single-pixel imaging is the speed of the acquisition and/or image restoration that is, as of today, not compatible with real-time applications. This thesis investigates fast acquisition/restoration schemes for single-pixel camera targeting biomedical applications. First, a new acquisition strategy based on wavelet compression algorithms is reported. It is shown that it can significantly accelerate image recovery compared to conventional schemes belonging to the compressive sensing framework. Second, a novel technique is proposed to alleviate an experimental positivity constraint of the modulation patterns. With respect to the classical approaches, the proposed non-negative matrix factorization based technique permits to divide by two the number of patterns sent to the spatial light modulator, hence dividing the overall acquisition time by two. Finally, the applicability of these techniques is demonstrated for multispectral and/or time-resolved imaging, which are common modalities in biomedical imaging
APA, Harvard, Vancouver, ISO, and other styles
8

Gérardin, Benoit. "Manipulation et contrôle d'ondes élastiques guidées en milieux complexes." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC230/document.

Full text
Abstract:
Quelle que soit la nature des ondes utilisées et des milieux traversés, le contrôle de la propagation ondes est d'un intérêt majeur pour de nombreuses applications. D'une part, la complexité du milieu peut être exploitée en exerçant un contrôle cohérent du front d’onde incident. D'autre part, on peut forcer une onde à se propager suivant un chemin désiré en concevant soi-même le milieu de propagation. Dans cette thèse, nous étudions ces deux aspects à partir d'expériences ultrasons-laser mettant en jeu la propagation d'ondes de Lamb dans des plaques.La propagation des ondes à travers un milieu diffusant est tout d’abord étudiée à partir de sa matrice de diffusion. Une prédiction théorique importante est l’existence de canaux de propagation totalement ouverts ou fermés. Une première partie de ces travaux consiste à démontrer expérimentalement ce résultat en mettant en évidence la possibilité de transmettre totalement une onde à travers un milieu désordonné. Dans un second temps, la mesure d’une matrice des temps de vol nous permet d’étudier ces canaux dans le domaine temporel. Ceux-ci donnent lieu à des paquets d’onde dont la cohérence spatiale et temporelle est conservée tout au long de leur propagation dans le milieu.Le second volet de cette thèse consiste à tirer profit des phénomènes de réflexion et réfraction négative afin de contrôler la propagation des ondes de Lamb. D’une part, la réflexion négative est mise à profit pour réaliser une conjugaison de phase passive des ondes de Lamb. D’autre part, le concept des milieux complémentaires est exploré afin d’annuler la diffraction des ondes et ainsi camoufler certaines zones du milieu de propagation
Whatever their nature or the propagation medium, controlling the propagation of waves is of fundamental interest for many applications. On the one hand, one can tame wave-fields in order to take advantage of the complexity of the medium. On the other hand, one can force waves along desired paths through a careful design of manmade materials. In this thesis, we study those two aspects on the basis of laser-ultrasonic experiments involving the propagation of Lamb waves in elastic plates.The control of wave propagation through complex systems is first investigated by means of the scattering matrix approach. In diffusive media, theorists have demonstrated the existence of propagation channels either closed or open through which the wave can travel. The first part of this work present a direct experimental evidence of this result as well as the ability to fully transmit a wave through a disordered medium. In a second part, the measurement of the time-delay matrix allows the study of such channels in the time domain. They are shown to give rise to particle-like wave packets that remain focused in time and space throughout their trajectory in the medium.The second part of this thesis consists in studying the concepts of negative reflection and refraction for the manipulation of Lamb wave propagation. On the one hand, negative reflection is taken advantage of to perform a passive phase conjugation of Lamb waves. On the other hand, the notion of complementary media is investigated in order to cancel the diffraction of waves and cloak some areas of the plate
APA, Harvard, Vancouver, ISO, and other styles
9

MARQUE, Sebastien. "Prise en compte de la surdispersion par des modèles à mélange de Poisson." Phd thesis, Université Victor Segalen - Bordeaux II, 2003. http://tel.archives-ouvertes.fr/tel-00009885.

Full text
Abstract:
Cette thèse propose une approche opérationnelle permettant de traiter des données environnementales surdispersées. Cette surdispersion, qui peut avoir pour origine une mauvaise spécification du modèle ou un recueil de données incomplet, entraîne un biais important dans l'estimation des paramètres. Ce travail propose donc une approche basée sur la régression Arcsinus Stricte comme alternative à la régression Binomiale-Négative. Le second aspect est abordé en présentant un modèle hiérarchique encore méconnu en épidémiologie et une extension possible aux corrélations spatiales, qui permet de compléter l'information disponible dans les études écologiques. Chacun de ces deux aspects seront détaillés d'un point de vue théorique et par des études de simulation. Enfin, nous préciserons les caractéristiques de la mortalité cardiovasculaire chez les personnes âgées par une analyse démographique complète. Nous détaillerons ensuite les facteurs de risque usuels de cette cause de décès ainsi que l'effet des éléments minéraux de l'eau de boisson, et principalement le calcium et le magnésium.
APA, Harvard, Vancouver, ISO, and other styles
10

Hennequin, Romain. "Décomposition de spectrogrammes musicaux informée par des modèles de synthèse spectrale : modélisation des variations temporelles dans les éléments sonores." Phd thesis, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00648997.

Full text
Abstract:
Cette thèse propose de nouvelles méthodes de décomposition automatique de spectrogrammes de signaux musicaux. Les décompositions proposées sont issues de la factorisation en matrices non-négatives (NMF), puissante technique de réduction de rang réputée pour fournir une décomposition sur un petit nombre de motifs fréquentiels automatiquement extraits des données ayant généralement un sens perceptif. La NMF ne permet cependant pas de modéliser de façon efficace certaines variations temporelles d'éléments sonores non-stationnaires communément rencontrées dans la musique. Cette thèse propose donc d'introduire dans la NMF des modèles génératifs de spectrogrammes musicaux basés sur des modèles classiques de synthèse sonore afin de pouvoir prendre en compte deux types de variations courantes : les variations d'enveloppe spectrale (sons d'instruments à cordes métalliques libres...) et les variations de fréquence fondamentale (vibrato, prosodie...). L'introduction de modèles de synthèse simples dans la NMF permet de proposer des décompositions capables de prendre en compte ces variations : l'utilisation d'un modèle de synthèse source/ filtre permet de modéliser les variations spectrales de certains objets musicaux au cours du temps. L'utilisation d'un modèle d'atomes harmoniques paramétriques inspiré de la synthèse additive ou bien l'utilisation d'un modèle inspiré de la synthèse par table d'onde qui utilise des transformations d'un unique atome de base afin de recréer toute la tessiture de chaque instrument permettent de modéliser les variations de fréquence fondamentale. Une application de séparation de sources et une de transformation sélective du son sont également présentées.
APA, Harvard, Vancouver, ISO, and other styles
11

Pierens, Matthieu. "Les sentiments négatifs à travers les siècles : l'évolution des champs sémantiques de la colère, de la peur et de la douleur en français dans la base textuelle FRANTEXT (1500-2000)." Paris 7, 2014. http://www.theses.fr/2014PA070015.

Full text
Abstract:
Cette thèse a pour objet l'évolution des champs sémantiques de la colère, de la peur et de la douleur dans l'ensemble de la base textuelle FRANTEXT entre le XVIème siècle et la fin du XXème siècle. Pour cela, nous avons mené une étude diachronique portant sur les lexèmes appartenant à ces champs, puis sur les trois champs considérés dans leur entier en adoptant une périodisation d'un demi-siècle. Pour chacun des 39 lexèmes considérés, nous avons exposé l'évolution de sa fréquence, la perception de l'affect par les contemporains, la nature de l'expérienceur, des causes de l'affect, de ses symptômes et de ses métaphores les plus saillantes en nous appuyant sur l'étude des collocations et des cooccurrences les plus significatives. Nous avons pu montrer l'importance de la variabilité dans l'expression des affects en fonction de l'époque et du genre littéraire, qu'il s'agisse des symptômes émotionnels ou des métaphores et métonymies exprimant l'intensité, l'aspect ou le contrôle. Nous avons expliqué cette variabilité par les évolutions socio-culturelles qui nous semblent les plus à même d'expliquer la reconfiguration permanente du système des affects. Par ailleurs, notre étude a aussi souligné la valeur heuristique des champs sémantiques et mis à jour une grande variabilité de leur fréquence et de leurs relations mutuelles. Enfin, s'agissant du changement de sens, nous avons proposé un modèle descriptif rendant compte des évolutions de la combinatoire d'un mot (emplois prototypiques vs. Périphérie) selon que sa fréquence globale dans le corpus augmente ou diminue dans le cadre des grands rythmes historiques caractérisant l'évolution des champs en question
This thesis deals with the evolution of semantic fields of anger, fear and pain throughout the whole FRANTEXT textual database from the 16th to the end of the 20th century. To do so, we have conducted a diachronic study of lexemes in these fields and the three fields considered in their entirety by adopting a periodization of half a century. For each of the 39 lexemes, we have presented the evolution of its frequency, the perception of affect by language users, the nature of the experiencer, of the causes, the symptoms and the most salient metaphors, relying on the study of collocations and the most significant co-occurrences. We have shown that the range of lexemes vaiy greatly according to the era and the genre whenever it concerns emotional symptoms or metaphors / metonymies expressing intensity, appearance or control. This variability can be explained by socio-cultural changes that seem most likely to account for the ongoing reconfiguration of the system of affects. In addition, our study has also emphasized the heuristic value of semantic fields and highlighted the large variability in their frequency and their mutual relations. Finally, regarding meaning change, we have proposed a descriptive model reflecting the changes in the combinatorial of the word (prototypical vs. Peripherical uses) depending on whether its overall frequency in the corpus increases or decreases in the context of ma:or historical 'aces characterizing the evolution of the field in question
APA, Harvard, Vancouver, ISO, and other styles
12

Loingeville, Florence. "Modèle linéaire généralisé hiérarchique Gamma-Poisson pour le contrôle de qualité en microbiologie." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10005/document.

Full text
Abstract:
Dans cette thèse, nous proposons une méthode d'analyse de variance pour des données discrètes issues du contrôle de qualité en microbiologie. Nous étudions tout d'abord la méthode d'analyse de variance actuellement utilisée, ses avantages, inconvénients, et limites. Nous proposons une première modélisation du problème par un modèle linéaire à deux facteurs fixes imbriqués. Nous utilisons la méthode d'analyse de déviance pour développer des tests de significativité des facteurs, qui s'avèrent efficaces sur des données d'essais interlaboratoires en microbiologie. Nous présentons ensuite une modélisation à facteurs aléatoires. Le caractère aléatoire des facteurs permet de caractériser la surdispersion des résultats de dénombrement en microbiologie, ce qui constitue l'un des objectifs principaux de ce travail. Le modèle développé correspond à un Modèle Linéaire Généralisé Hiérarchique Gamma-Poisson à trois facteurs aléatoires. Nous proposons alors une méthode d'estimation des effets fixes et aléatoires, ainsi que des paramètres de dispersion associés aux facteurs. Nous présentons des applications pratiques de cette méthode à des données d'essais interlaboratoires en microbiologie, qui prouvent l’ajustement du modèle aux données réelles. Nous proposons également une méthode de test de la significativité des facteurs, ainsi qu'une nouvelle méthode d'évaluation de la performance analytique des laboratoires participants à un essai. Nous présentons enfin une distribution presque-exacte du produit de variables aléatoires indépendantes de loi Gamma Généralisées, permettant d’effectuer des tests de détection de résultats de dénombrement aberrants
In this thesis, we propose an analysis of variance method for discrete data from quality control in microbiology. To identify the issues of this work, we start by studying the analysis of variance method currently used in microbiology, its benefits, drawbacks, and limits. We propose a first model to respond the problem, corresponding to a linear model with two nested fixed factors. We use the analyse of deviance method to develop significance tests, that proved to be efficient on data sets of proficiency testings in microbiology. We then introduce a new model involving random factors. The randomness of the factors allow to assess and to caracterize the overdispersion observed in results of counts from proficiency testings in microbiology, that is one of the main objectives of this work. The new model corresponds to a Gamma-Poisson Hierarchical Generalized Linear Model with three random factors. We propose a method based on this model to estimate dispersion parameters, fixed, and random effects. We show practical applications of this method to data sets of proficiency testings in microbiology, that prove the goodness of fit of the model to real data. We also develop significance tests of the random factors from this new model, and a new method to assess the performance of the laboratories taking part in a proficiency testing. We finally introduce a near-exact distribution for the product of independent generalized Gamma random variables, in order to characterize the intensity of the Poisson distribution of the model. This approximation, developped from a factorization of the characteristic function, is very precise and can be used to detect outliers
APA, Harvard, Vancouver, ISO, and other styles
13

Gaudeau, Albane. "Conversion du cancer du sein triple-négatif par la modulation épigénétique Cell-Based siRNA Screens Highlight Triple-Negative Breast Cancer Cell Epigenetic Vulnerability True Value of RNAi Screens Beyond On-Target Effects Du criblage à haut contenu à la déconvolution de cibles : nouvelle donne pour les approches phénotypiques." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASL048.

Full text
Abstract:
Les travaux de recherche que présente cette thèse sont le fruit de collaborations fructueuses entre mon entreprise d’accueil, l’Institut de Recherches SERVIER, mon laboratoire d’accueil, la plateforme BioPhenics de l’Institut Curie, et moi-même préparant mon doctorat à l’Ecole Doctorale CBMS de l’Université Paris-Saclay. Des partenariats internationaux ont également permis de générer et d’enrichir de multiples données dans un même but : identifier de nouvelles cibles thérapeutiques pour le traitement du cancer du sein triple-négatif (TNBC, Triple-negative breast cancer). Le cancer TNBC est une forme de cancer mammaire caractérisée par l’absence des récepteurs aux œstrogènes (ER, Estrogen Receptor), à la progestérone (PR, Progesterone receptor), et du récepteur de facteur de croissance épidermique humain 2 (HER2, Human epidermal growth factor receptor 2), touchant près de 20% des femmes diagnostiquées avec un cancer mammaire. Par l’absence de ces récepteurs, les patientes ne sont éligibles ni aux thérapies hormonales ni aux thérapies ciblées anti-HER2. Alors que le cancer TNBC est enrichi en cellule-souches cancéreuses (CSC) et que des dérégulations épigénétiques ont été identifiées dans les voies de signalisation des CSC des TNBC, nous avons émis l'hypothèse que les mécanismes épigénétiques pourraient être modulés et aboutir à deux phénotypes : un impact sur la viabilité des cellules d'une part, et un effet sur l'expression de HER2 de façon à sensibiliser les cellules aux thérapies anti-HER2 existantes d'autre part. Afin de vérifier ces hypothèses, nous avons réalisé des cribles de génomique fonctionnelle en siRNA ciblant 863 modulateurs épigénétiques par des approches à haut débit et haut contenu. Bien que l’utilisation de siRNA représente une approche puissante, le risque d’effets hors cible est important. Afin de renforcer la découverte de hits spécifiques et de limiter l’identification de hits non-spécifiques, différentes stratégies ont été mises en place pour les deux études. Alors que l’identification de gènes impliqués dans l’expression de HER2 est toujours à l’étude, nous avons identifié 3 gènes clés pour la viabilité des cellules TNBC, parmi lesquels CHAF1A, dont le rôle dans la viabilité des cellules TNBC est identifié pour la première fois. Aussi, suite à des analyses bioinformatiques réalisées à partir des résultats générés en viabilité, les effets non spécifiques à la cible initiale ont été considérés comme sources de hits potentiels, permettant d’envisager de nouvelles approches de génomique fonctionnelle
Research presented in this thesis manuscript is the result of a fruitful collaboration between my host company, Institut de Recherches SERVIER, my host laboratory, BioPhenics Laboratory at Institut Curie, and I, preparing my PhD at the doctoral school CBMS at Université Paris-Saclay. International partnerships also led to the generation of numerous data towards the same purpose: identifying novel therapeutic targets in triple-negative breast cancer (TNBC) treatment. TNBC is a breast cancer subtype characterized by its ER(Estrogen receptor)-, PR(Progesterone receptor)- and HER2(Human epidermal growth factor receptor 2)-negative phenotype, affecting almost 20% of breast cancer diagnosed women. In the absence of these receptors, patients cannot respond neither to hormone therapy nor anti-HER2 targeted therapies. While TNBC is enriched in cancer-stem cells (CSC) and epigenetic deregulations were identified in TNBC CSC signaling pathways, we supposed that epigenetic mechanisms could be modulated to result in two phenotypes : an impact on TNBC cell viability, and an impact on HER2 expression in order to sensitize cells to existing anti-HER2 therapies. To investigate these hypotheses, we performed siRNA functional genomics screening targeting 863 epigenetic modulators through high-throughput and high-content approaches. Although using siRNA represents a powerful approach, the risk of off-target effects is important. In order to reinforce on-target hits discovery and to prevent the identification of non-specific hits, various strategies were used for the two studies. While the identification of genes involved in HER2 expression is currently in progress, we identified 3 key genes for TNBC cell viability, including CHAF1A for which the role in TNBC cell viability was never revealed. Also, following bioinformatic analyses performed from viability data, off-target effects were considered as sources of potential hits, highlighting the potential of a new functional genomics screening approach
APA, Harvard, Vancouver, ISO, and other styles
14

Nguyen, Viet-Dung. "Contribution aux décompositions rapides des matrices et tenseurs." Thesis, Orléans, 2016. http://www.theses.fr/2016ORLE2085/document.

Full text
Abstract:
De nos jours, les grandes masses de données se retrouvent dans de nombreux domaines relatifs aux applications multimédia, sociologiques, biomédicales, radio astronomiques, etc. On parle alors du phénomène ‘Big Data’ qui nécessite le développement d’outils appropriés pour la manipulation et l’analyse appropriée de telles masses de données. Ce travail de thèse est dédié au développement de méthodes efficaces pour la décomposition rapide et adaptative de tenseurs ou matrices de grandes tailles et ce pour l’analyse de données multidimensionnelles. Nous proposons en premier une méthode d’estimation de sous espaces qui s’appuie sur la technique dite ‘divide and conquer’ permettant une estimation distribuée ou parallèle des sous-espaces désirés. Après avoir démontré l’efficacité numérique de cette solution, nous introduisons différentes variantes de celle-ci pour la poursuite adaptative ou bloc des sous espaces principaux ou mineurs ainsi que des vecteurs propres de la matrice de covariance des données. Une application à la suppression d’interférences radiofréquences en radioastronomie a été traitée. La seconde partie du travail a été consacrée aux décompositions rapides de type PARAFAC ou Tucker de tenseurs multidimensionnels. Nous commençons par généraliser l’approche ‘divide and conquer’ précédente au contexte tensoriel et ce en vue de la décomposition PARAFAC parallélisable des tenseurs. Ensuite nous adaptons une technique d’optimisation de type ‘all-at-once’ pour la décomposition robuste (à la méconnaissance des ordres) de tenseurs parcimonieux et non négatifs. Finalement, nous considérons le cas de flux de données continu et proposons deux algorithmes adaptatifs pour la décomposition rapide (à complexité linéaire) de tenseurs en dimension 3. Malgré leurs faibles complexités, ces algorithmes ont des performances similaires (voire parfois supérieures) à celles des méthodes existantes de la littérature. Au final, ce travail aboutit à un ensemble d’outils algorithmiques et algébriques efficaces pour la manipulation et l’analyse de données multidimensionnelles de grandes tailles
Large volumes of data are being generated at any given time, especially from transactional databases, multimedia content, social media, and applications of sensor networks. When the size of datasets is beyond the ability of typical database software tools to capture, store, manage, and analyze, we face the phenomenon of big data for which new and smarter data analytic tools are required. Big data provides opportunities for new form of data analytics, resulting in substantial productivity. In this thesis, we will explore fast matrix and tensor decompositions as computational tools to process and analyze multidimensional massive-data. We first aim to study fast subspace estimation, a specific technique used in matrix decomposition. Traditional subspace estimation yields high performance but suffers from processing large-scale data. We thus propose distributed/parallel subspace estimation following a divide-and-conquer approach in both batch and adaptive settings. Based on this technique, we further consider its important variants such as principal component analysis, minor and principal subspace tracking and principal eigenvector tracking. We demonstrate the potential of our proposed algorithms by solving the challenging radio frequency interference (RFI) mitigation problem in radio astronomy. In the second part, we concentrate on fast tensor decomposition, a natural extension of the matrix one. We generalize the results for the matrix case to make PARAFAC tensor decomposition parallelizable in batch setting. Then we adapt all-at-once optimization approach to consider sparse non-negative PARAFAC and Tucker decomposition with unknown tensor rank. Finally, we propose two PARAFAC decomposition algorithms for a classof third-order tensors that have one dimension growing linearly with time. The proposed algorithms have linear complexity, good convergence rate and good estimation accuracy. The results in a standard setting show that the performance of our proposed algorithms is comparable or even superior to the state-of-the-art algorithms. We also introduce an adaptive nonnegative PARAFAC problem and refine the solution of adaptive PARAFAC to tackle it. The main contributions of this thesis, as new tools to allow fast handling large-scale multidimensional data, thus bring a step forward real-time applications
APA, Harvard, Vancouver, ISO, and other styles
15

Gagne, Christophe. "Les interactions verbales en France et en Grande-Bretagne : étude comparative de quatre petits commerces français et britanniques." Thesis, Lyon 2, 2014. http://www.theses.fr/2014LYO20051/document.

Full text
Abstract:
Ce travail de thèse s’inscrit dans une perspective comparative et interculturelle. Sa mise en œuvre repose sur l’idée que c’est en observant ce qui se passe dans les interactions du quotidien que l’on peut mieux comprendre le rapport que les cultures entretiennent, et mettre au jour ce que les comportements observés dans chacune des cultures étudiées ont de spécifique. En s’appuyant sur l’analyse minutieuse et détaillée d’enregistrements effectués dans quatre sites commerciaux français et britanniques, l’étude tente de comprendre le comportement langagier des participants en le mettant en relation avec divers éléments du contexte (éléments relevant du micro-contexte : matériel discursif contigu aux énoncés étudiés ; du contexte situationnel : agencement du site, nombre de participants, finalité de l’interaction ; du macro-contexte : place occupée par les interactions de commerce dans les cultures en question, par les sites, valeurs culturelles d’arrière-plan). La finalité de cette étude (qui aborde les rituels d’entrée et de sortie d’interaction ; les remerciements ; la réalisation d’actes de langage directifs : questions, requêtes, offres ; les séquences conversationnelles) est d’obtenir une meilleure compréhension des profils communicatifs relatifs aux cultures française et britannique
This thesis, which is of a contrastive and intercultural nature, is informed by the idea that it is by observing the behaviour of interactants in everyday interactions that the relationship between cultures can best be approached, and the specificity of the forms of behaviour encountered explored. Through the careful and detailed analysis of recordings taken in four different shops (French and British), the study aims to understand the linguistic behaviour of the participants by linking it to various contextual elements (micro-contextual elements: discursive material that surrounds the utterances analysed; situational elements: site layout, number of participants, interaction’s finality; macro-contextual ones: status of service encounters and of the types of shops selected, cultural values that underpin explored behaviour). The purpose of the study (which analyses opening and closing rituals; thanking; the way directive speech acts such as questions, offers and requests are performed; conversational sequences) is to provide a better understanding of the communicative styles that can be associated with French and British cultures
APA, Harvard, Vancouver, ISO, and other styles
16

Labrecque, Mariane. "Expériences négatives d'accouchements décrites par des femmes ayant accouché en milieux hospitalier : les liens avec le concept des violences obstétricales." Thèse, 2018. http://hdl.handle.net/1866/21340.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Kulinich, Chuprina Olena. "Irrégularité, surgénéralisation et rétroaction négative (quelques aspects du traitement et de l’acquisition de la morphologie verbale du russe)." Thèse, 2016. http://hdl.handle.net/1866/18475.

Full text
Abstract:
Cette thèse a pour objectif d’étudier certains aspects du traitement et de l’acquisition de la morphologie verbale du russe. Le but de ce travail est double. Premièrement, nous avons étudié le traitement d’une alternance consonantique, la palatalisation, par des adultes russophones. Ce processus morphonologique mène à l’allomorphie des radicaux dans plusieurs classes verbales dont les verbes subissent la surgénéralisation dans le langage des enfants. Deuxièmement, nous avons testé l’effet de la rétroaction négative présentée dans l’input, surtout l’effet durable, sur l’élimination des erreurs de surgénéralisation fréquentes chez les enfants en russe. Dans la première étude, nous présentons des données expérimentales sur le traitement des emprunts et des non-mots. Plus particulièrement, cette étude vise à répondre à la question de savoir comment la palatalisation de consonnes dentales et vélaires est traitée par des locuteurs adultes du russe. Les résultats montrent que la palatalisation est semi-productive en fonction des facteurs suivants: a) la distribution des allomorphes à l’intérieur du paradigme, et b) la productivité des classes verbales. Nous supposons que la différence dans le traitement de la palatalisation chez les adultes devrait être reflétée dans le langage des enfants. Notre deuxième article présente les résultats de l’étude sur les effets de la rétroaction négative dans l’acquisition de la morphologie flexionnelle en russe. Pour ce faire nous avons mené une série de tâches induites auprès d’enfants russophones âgés de 3 à 4 ans. Des verbes sensibles à la surgénéralisation en yod /j/, une erreur typique des enfants de cet âge, ont été utilisés comme stimuli. Les participants ont été divisés en quatre groupes selon le type de rétroaction (correction, question de clarification et répétition) auquel ils étaient exposés. Dans chaque groupe de participants, nous avons observé une amélioration significative en production cible de formes verbales avec le temps. Cependant aucune différence significative n’a été trouvée concernant le type de rétroaction. Ces résultats suggèrent que la rétroaction négative ne joue pas un rôle important dans le processus d’acquisition. Ensemble, les deux études représentent une nouvelle contribution à la discussion sur les processus irréguliers en morphologie et le phénomène de surgénéralisation, ainsi que sur le (non) rôle de la rétroaction dans l’élimination des formes surgénéralisées dans le langage des enfants.
This thesis aims at studying certain aspects of Russian verb morphology processing and acquisition. The goal was two-fold: first, we investigated the productivity of morphonological alternations that lead to irregular verb stem allomorphy among adult speakers of Russian. The verbs in the study are known to undergo overregularization in Russian child speech. Second, we tested the (potentially) lasting effect of negative feedback on the retreat from overregularization errors in children. In the first paper, we present experimental data on the processing of loanwords and nonce words that focus on a morphonological alternation (palatalization) in Russian. This study addresses the issue of how stem allomorphy involving palatalization of the velar/palatal and dental/palatal types in the Russian verb system is processed by adults. Processing of palatalization is shown to be quite variable and to depend on: (i) different distribution of allomorphs (past/non-past or 1Sg./other forms) within the verb paradigm, and (ii) overall productivity of verbal classes. We also hypothesized that these differences should be reflected in child language verb morphology acquisition. The study presented in the second article investigates negative feedback effects on inflectional morphology acquisition in Russian. With that goal in mind, we conducted a series of elicited tasks with Russian speaking children aged from 3 to 4 years. Verbs which undergo overregularization in the non-past tense resulting from applying the yod /j/-pattern (typical errors for children of this age) were used as stimuli. Four groups of participants were formed accordingly to three types of feedback (Correction, Clarification question and Repetition), and a control group without feedback. Our results revealed a significant effect of time on target verb form production. However, no significant difference was observed as a function of feedback type, or even where there was no feedback. This finding supports the general hypothesis that negative feedback is not an important factor of language acquisition. Altogether, the results presented in this thesis provide new insights on irregular processes in Russian verb morphology, as well as on the inefficiency of negative feedback in the acquisition of L1 morphology.
APA, Harvard, Vancouver, ISO, and other styles
18

Rivest, Amélie. "La régression de Poisson multiniveau généralisée au sein d’un devis longitudinal : un exemple de modélisation du nombre d’arrestations de membres de gangs de rue à Montréal entre 2005 et 2007." Thèse, 2012. http://hdl.handle.net/1866/9924.

Full text
Abstract:
Les données comptées (count data) possèdent des distributions ayant des caractéristiques particulières comme la non-normalité, l’hétérogénéité des variances ainsi qu’un nombre important de zéros. Il est donc nécessaire d’utiliser les modèles appropriés afin d’obtenir des résultats non biaisés. Ce mémoire compare quatre modèles d’analyse pouvant être utilisés pour les données comptées : le modèle de Poisson, le modèle binomial négatif, le modèle de Poisson avec inflation du zéro et le modèle binomial négatif avec inflation du zéro. À des fins de comparaisons, la prédiction de la proportion du zéro, la confirmation ou l’infirmation des différentes hypothèses ainsi que la prédiction des moyennes furent utilisées afin de déterminer l’adéquation des différents modèles. Pour ce faire, le nombre d’arrestations des membres de gangs de rue sur le territoire de Montréal fut utilisé pour la période de 2005 à 2007. L’échantillon est composé de 470 hommes, âgés de 18 à 59 ans. Au terme des analyses, le modèle le plus adéquat est le modèle binomial négatif puisque celui-ci produit des résultats significatifs, s’adapte bien aux données observées et produit une proportion de zéro très similaire à celle observée.
Count data have distributions with specific characteristics such as non-normality, heterogeneity of variances and a large number of zeros. It is necessary to use appropriate models to obtain unbiased results. This memoir compares four models of analysis that can be used for count data: the Poisson model, the negative binomial model, the Poisson model with zero inflation and the negative binomial model with zero inflation. For purposes of comparison, the prediction of the proportion of zero, the confirmation or refutation of the various assumptions and the prediction of average number of arrrests were used to determine the adequacy of the different models. To do this, the number of arrests of members of street gangs in the Montreal area was used for the period 2005 to 2007. The sample consisted of 470 men, aged 18 to 59 years. After the analysis, the most suitable model is the negative binomial model since it produced significant results, adapts well to the observed data and produces a zero proportion very similar to that observed.
APA, Harvard, Vancouver, ISO, and other styles
19

Omidi, Firouzi Hassan. "On the design of customized risk measures in insurance, the problem of capital allocation and the theory of fluctuations for Lévy processes." Thèse, 2014. http://hdl.handle.net/1866/11669.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography