To see the other types of publications on this topic, follow the link: Donnee met.

Dissertations / Theses on the topic 'Donnee met'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Donnee met.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Bonnamy, Sylvie. "Caractérisation des produits pétroliers lors de la pyrolyse de leur fraction lourde : étude géochimique et structurale." Orléans, 1987. http://www.theses.fr/1987ORLE2027.

Full text
Abstract:
La texture et la microtexture de precurseurs carbones de composition elementaire variee ont ete etudiees lors de la carbonisation depuis la nucleation, jusqu'a la coalescence et a la fin de la croissance des domaines orientes. Dans la 2**(e) partie, les relations roche-mere et petrole sont abordees par l'etude de la filiation kerogene-asphaltene de roche-asphaltenes d'huile. Dans la 3**(e) partie, on analyse l'influence de la biodegradation sur l'importance des domaines orientes des aspfhaltenes a partir d'une serie d'huile a biodegradation croissante. La degradation microtexturale s'accentue avec le pourcentage ou hydrocarbures aromatiques partant precocement au cours de la pyrolyse. Les asphaltenes sont affectes par les facteurs modifiant la matiere organique totale
APA, Harvard, Vancouver, ISO, and other styles
2

Holtzapffel, Thierry. "Minéraux argileux lattes : les smectites du domaine atlantique." Angers, 1986. http://www.theses.fr/1986ANGE0006.

Full text
Abstract:
Les smectites des sédiments atlantiques du jurassique supérieur à l'actuel ; on distingue des particules floconneuses mixtes et lattées. Les premières, d'origine détritique probable, n'ont subi aucune modification post-sédimentaire ; les dernières résultent du réajustement diagenétique précoce des premières. L'intensité de ce réajustement, qui a lieu à bilans chimique et minéralogique pratiquement constants, a été quantifiée puis comparée à de nombreux paramètres sédimentaires. Trois facteurs importants : microperméabilité initiale du sédiment, temps de contact entre particules et fluides interstitiels et la composition de ces fluides.
APA, Harvard, Vancouver, ISO, and other styles
3

Guérin, Jacques. "Analyse statistique de donnees bacteriologiques du milieu marin par classification hierarchique." Rennes 1, 1990. http://www.theses.fr/1990REN1T087.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Armillotta, Francesca <1977&gt. "Effetti della somministrazione di Testosterone in donne." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amsdottorato.unibo.it/4511/.

Full text
Abstract:
Come noto, il testosterone (T) gioca un ruolo importante in differenti funzioni fisiologiche. Il ruolo del T nelle donne è tuttavia largamente sconosciuto. Recenti studi riportano un ruolo del T nella modulazione della funzionalità sessuale femminile. SCOPO: Indagare gli effetti del T nelle donne, su parametri metabolici, ossei e composizione corporea e studiare gli effetti del T sulla proliferazione e innervazione della vagina. METODI: 16 soggetti FtM ovariectomizzati sono stati sottoposti a terapia con TU 1000 mg im + placebo o dutasteride. Alla settimana 0 e 54 sono stati valutati: parametri metabolici e composizione corporea. 16 campioni di tessuto vaginale ottenuti da soggetti FtM trattati con T, 16 donne PrM e 16 donne M sono stati analizzati. Sono stati valutati: morfologia, contenuto di glicogeno, espressione del Ki-67, recettori per estrogeni e androgeni ed innervazione. RISULTATI: La somministrazione di T in soggetti FtM determina aumento del colesterolo LDL e riduzione delle HDL. L’HOMA si riduce significativamente nel gruppo TU e tende ad aumentare nel gruppo TU+D. L’ematocrito aumenta. BMI, WHR e grasso tendono a ridursi, la massa magra ad aumentare. Non riportiamo cambiamenti del metabolismo osseo. Nel tessuto vaginale di FtM osserviamo perdita della normale architettura dell’epitelio. La somministrazione di T determina riduzione della proliferazione cellulare. I recettori per E e il PGP 9.5 sono significativamente ridotti nei FtM. La presenza di recettori per A è dimostrata nello stroma e nell’epitelio. L’espressione di AR si riduce con l’età e non cambia con la terapia con T nella mucosa, mentre aumenta nello stroma dopo somministrazione di T. CONCLUSIONI: Non riportiamo effetti avversi maggiori dopo somministrazione di T. La terapia con T determina ridotta proliferazione dell’epitelio vaginale. I recettori per AR sono presenti sia nello stroma che nell’epitelio. T aumenta l’espressione di AR nello stroma.
As we know, testosterone (T) plays greater role in many different physiological functions. The role of T in women is still largely unknow. Recent data reports an important role of T in modulating female sexual responsed. AIM: The aim of our study was to investigate the effects of T in women on metabolic parameters and body composition and effects of T on vaginal histology, proliferation and innervations. METHODS: 16 ovariectomized FtM subjects recived TU 1000 mg i.m. with placebo or dutasteride. At week 0 and 54 the following measurements were performed: body composition and metabolic parameters. 16 vaginal sampler from 16 FtM subjects treated with T and 16 PrM e 16 M subjects were collected. Morfhology, glycogen content, Ki-67 proliferation, estrogen receptor, innervations, androgen receptor were evaluated. RESULTS: The administration of T in FtM determines a non-significant increase in LDL cholesterol and significant decrease in HDL cholesterol. HOMA are significantly reduced in the group TU-alone and tend to increase in group TU + D. The hematocrit increases significantly. BMI, WHR and fat mass tend to decrease. Lean body mass tend to increase. No significant changes in bone metabolism have been reported. Vaginal samples from FtM showed a loss of normal architecture of the epithelium. T administration resulted in a strong proliferation reduction. Stromal and epithelial ERα and stromal PGP 9.5 exspression was significantly decrease in FtM. ARs were detected in mucosa and stroma. In mucosa AR density decrease with age but non change with T. In stroma, AR density increase con T. CONCLUSIONS: In conclusion, no major adverse effects were reported after T administration. T administration determines changes in histomorphology and reduces proliferation of vaginal epithelium. We found AR expression in epithelium and stroma. T increase AR expression in stroma.
APA, Harvard, Vancouver, ISO, and other styles
5

Rinckenbach, Thierry. "Diagenese minerale des sediments petroliferes du delta fossile de la mahakam (indonesie) : evolution mineralogique et isotopique des composants argileux et histoire thermique." Université Louis Pasteur (Strasbourg) (1971-2008), 1988. http://www.theses.fr/1988STR13117.

Full text
Abstract:
On etudie la diagenese des sediments deltaiques deposes sur plus de 4000m d'epaisseur du miocene inferieur a l'holocene a l'emplacement du delta actuel de la mahakam. On aborde les phenomenes de cimentation, de dissolution avec formation de porosite secondaire et de neoformations de kaolinite et illite a l'aide de la diffraction rx, de la microscopie electronique a balayage et a transmission, de la geochimie isotopique. On analyse les mecanismes d'illitisation ainsi que la formation de l'interstratifie illit nonesmectite en fonction de l'evolution thermique de la region
APA, Harvard, Vancouver, ISO, and other styles
6

Oh, Jae-Ho. "Etude structurale de la graphitation naturelle : exemples de bassins sud-coreens." Orléans, 1987. http://www.theses.fr/1987ORLE2043.

Full text
Abstract:
On etudie la formation du graphite naturel. On compare les carbones issus de series nturelles soumises a un metamorphisme croissant a des carbones traites exprimentalement. Leur texture et leur micro-structure sont analysees par microscopie electronique par transmission, par microspectrometrie raman et diffraction rx. La graphitation des carbones issus de vegetaux superieurs est comparable a la graphitation sous pression des carbones vitreux. Les materiaux d'origine algaire sont comparables aux carbones issus de la pyrolyse experimentale sous pression des parois d'algues
APA, Harvard, Vancouver, ISO, and other styles
7

Nicolae, Lerma Alexandre. "Approche analytique et étude prospective de l'aléa de submersion : de la donnée observée à la modélisation, à Carthagène des Indes, Colombie." Paris 1, 2012. http://www.theses.fr/2012PA010636.

Full text
Abstract:
Dans ce travail, nous avons développé une approche analytique du signal "niveau extrême" consistant à différencier et estimer la part de chaque composantes de variation du niveau de la mer (composantes de nature marégraphique, météorologique et hydrodynamique) afin de mieux définir le type d'aléa à l'origine des submersions. La méthode consiste à coupler l'approche « classique» - étude approfondie des données observées et des surcotes de tempêtes - à une modélisation numérique des facteurs météorologiques (modèle ADCIRC) et hydrodynamiques en zone de déferlement (modèle de propagation SWAN couplé aux modèles de déferlement SWASH et PCoulwave). Grâce à un système d'observation vidéo en front de mer (HORUS), les modélisations ont été validées en confrontant les niveaux simulés aux niveaux réellement observés sur le terrain. Notre recherche à été mené sur la péninsule de Bocagrande à Carthagène des Indes (Colombie). Le site, très vulnérable à la submersion marine, dispose d'une remarquable disponibilité de données instrumentales nécessaires à l'application de notre protocole expérimental. Ainsi nous avons contribué à une meilleure connaissance de la genèse des niveaux marins extrêmes, à une réflexion sur les relations entre ces niveaux et les évolutions morphologiques des plages après une crise érosive. Nous avons également permis d'améliorer la connaissance des aléas marins à l'échelle régionale et de leurs conséquences sur le site de Bocagrande. Compte tenu du rythme d'élévation du niveau moyen de la mer, les cartes de submersions et scénarii prospectifs montrent que la vulnérabilité pourrait atteindre un stade critique pour la viabilité des infrastructures d'ici 20 ans.
APA, Harvard, Vancouver, ISO, and other styles
8

Ayoub, Nadia. "Variabilite du niveau de la mer et de la circulation en mediterranee a partir de donnees altimetriques et de champs de vent : comparaison avec des simulations numeriques." Toulouse 3, 1997. http://www.theses.fr/1997TOU30254.

Full text
Abstract:
La variabilite de la circulation oceanique en mediterranee apparait comme une combinaison de cellules a l'echelle des sous-bassins, de courants de surface generalement instables et de tourbillons de petite echelle, caracterises par un large eventail d'echelles temporelles. L'altimetrie satellitale permet une approche privilegiee a l'etude de la circulation en fournissant des champs synoptiques de cette variabilite. Ce travail s'appuie sur l'analyse des donnees d'anomalies du niveau de la mer par rapport a une surface moyenne, des missions topex/poseidon (t/p) et ers1/2. Les donnees sont corrigees de biais le long des traces dus a des effets de la pression atmospherique et a des erreurs d'orbite. Nous avons developpe pour cela une methode basee sur l'ajustement des niveaux moyens le long des traces. L'analyse des donnees t/p sur la periode oct. 92-dec. 96 montre l'existence d'un cycle saisonnier du niveau moyen dont les variations pic a pic peuvent atteindre 20 cm. Ce signal est explique par les effets steriques et par les variations de masse du bassin. Les donnees t/p et ers1/2 sont combinees et cartographiees via une methode d'analyse objective. La contribution des donnees ers1/2 permet une amelioration de la description de la circulation mesoechelle. La circulation est dominee par des structures de taille moyenne (200-300 km) presentant une forte variabilite interannuelle et par des tourbillons a petite echelle (<100 km) caracterises par des echelles de temps de 10 a 20 jours. La signature sur la topographie de surface de la reponse au forcage par le vent est etudiee a partir de champs de vent et de l'equation de la vorticite pour un mouvement barotrope et quasigeostrophique. Les calculs ne suggerent une reponse au vent que localement et sur des periodes limitees. L'analyse des donnees altimetriques est completee par des comparaisons preliminaires avec des simulations numeriques de la circulation sur tout le bassin (mom-gfdl) et sur le bassin ouest (opa-lodyc).
APA, Harvard, Vancouver, ISO, and other styles
9

Nalpas, Thierry. "Inversion des grabens du sud de la mer du nord. Donnees de sub-surface et modelisation analogique." Rennes 1, 1994. http://www.theses.fr/1994REN10085.

Full text
Abstract:
Le concept d'inversion tectonique a ete introduit par les geologues petroliers de la mer du nord, pour traduire l'aspect anormal de grabens formant des hauts structuraux par rapport a leurs plates-formes. La comprehension de l'inversion des grabens est tres importante a la fois pour l'industrie petroliere, afin de mieux connaitre la genese et le piegeage des hydrocarbures, mais aussi pour la recherche fondamentale, quant a sa signification geodynamique. La zone d'etude consideree dans ce travail est le sud de la mer du nord, et plus particulierement le broad fourteens basin qui fait partie des grabens hollandais. Ces grabens se sont formes entre le trias et le cretace inferieur et ont ete inverses au cretace superieur et au tertiaire. L'analyse des donnees de sub-surface du b. F. B. A permis d'identifier les parametres les plus importants de l'inversion tectonique. Des modeles analogiques ont ete realisees pour etudier les effets de ces parametres sur le developpement des structures d'inversion. Les experiences ont montre que l'inversion d'un graben d'echelle crustale par reactivation de failles normales a fort pendage ne peut se faire qu'avec une obliquite , entre graben et compression, inferieure a 45. L'inversion se traduit soit par une partition de la deformation entre decrochement sur les failles normales heritees et chevauchement neoformes (>45), soit par une reactivation des failles normales en chevauchements oblique (<45). Lorsque la couverture est decollee du socle, le chevauchement du remplissage du graben sur les plates-formes est localise sur les bordures. Cet effet est accentue par la presence de diapirs de bordure de graben lorsqu'ils existent. Cette analyse, menee sur le b. F. B. , a ensuite ete etendue aux autres grabens de la mer du nord. L'ensemble des donnees cinematiques obtenues est utilise pour proposer une interpretation geodynamique de l'inversion des grabens de la mer du nord en tant que consequence de la collision alpine
APA, Harvard, Vancouver, ISO, and other styles
10

Bertrand, Gilles. "Le conflit helléno-turc : nouvelles donnes et nouveaux acteurs dans le système postbipolaire et à l'âge de la globalisation." Paris, Institut d'études politiques, 2000. http://www.theses.fr/2000IEPP0026.

Full text
Abstract:
Le conflit helléne-turc est apparemment un conflit interétatique très classique : les enjeux en sont le statut de Chypre, les délimitations maritimes et aériennes en mer Egée, donc des questions de souveraineté et de territoire. Ce conflit a éclaté pendant la guerre froide (1955). Son identité comme conflit de la guerre froide fait débat, d'autant que la fin de celle-ci n'a pas entraîné sa résolution. La question est de savoir si le contexte de l'après-guerre froide et l'accélération du phénomène de mondialisation (particulièrement la révolution technologique des moyens de communication) affectent ce conflit comme ils peuvent affecter d'autres conflits interétatiques classiques ou en structurer de nouveaux (guerre du golfe, guerres de Yougoslavie) : nouvelles perceptions par les acteurs, autonomie grandissante des acteurs non étatiques, environnement régional (Balkans et Moyen-Orient en l'occurrence) de plus en plus imprévisible. D'où, notamment, l'attrait des processus de régionalisation, à un niveau encore faible de coopération (zone de coopération économique de la Mer noire dont sont membres Grèce et Turquie), ou à un niveau très élevé d'intégration (Union européenne à laquelle Chypre et la Turquie souhaitent adhérer). L'examen de la période qui va du processus de rapprochement bilatéral dit de Davos (1988) à celui dit du « tremblement de terre » (1999) montre un phénomène de « bifurcation » (suivant le paradigme de James Rosenau) entre l'espace des relations interétatiques qui progressent peu vers la coopération, en raison de l'absence de volonté politique et de la puissance du nationalisme de part et d'autre de la mer Egée et de la « ligne verte » à Chypre, et d'autre part l'espace transnational dans lequel les relations entre acteurs des sociétés civiles grecque, turque et chypriote(s) se développent avec un dynamisme certain. La globalisation et la mondialisation donnent également de plus grandes marges de manœuvres aux groupes armés clandestins (17 novembre en Grèce, PKK, ou Loups gris en Turquie), aux organisations diasporiques et aux stratégies individuelles (telles que les recours auprès de la Cour européenne des droits de l'homme contre l'occupation d'une partie de Chypre par la Turquie).
APA, Harvard, Vancouver, ISO, and other styles
11

LOPES, LAURENT. "Etude methodologique du traitement sismique : deconvolution directionnelle dans le domaine frequence - nombre d'onde ; traitement de donnees sismiques acquises avec un dispositif tracte pres du fond de la mer. application a des donnees reelles." Paris 6, 1997. http://www.theses.fr/1997PA066685.

Full text
Abstract:
Deconvolution directionnelle dans le domaine frequence - nombre d'onde de par leur dimension, les reseaux de sources sismiques marines sont directionnels. Cette directivite est a eliminer avant tout traitement base sur l'hypothese d'une source unique. Une methode allant dans ce sens, ainsi que le design de l'operateur correspondant, est explicitee. Cette methode est testee sur des donnees du delft air gun experiment (1983). Cette methode considere des sections en recepteur commun et utilise une approche exacte. Elle s'oppose en cela a la methode proposee par ziolkowski et spoelstra (1987), qui considere des sections en point milieu commun et qui n'est qu'une approximation. Considerer des sections en recepteur commun permet en outre de doubler l'intervalle des nombres d'onde consideres. Par suite, une amelioration de la resolution etait attendue. Elle n'a pas ete obtenue. Cette etude montre la necessite de transformer le champ d'onde emis par la source, lie a un milieu a trois dimensions, en un champ d'onde lie a un milieu a deux dimensions. Un algorithme oeuvrant dans ce sens est propose et relie a la deconvolution. Traitement de donnees acquises avec un dispositif tracte pres du fond de la mer. Un dispositif sismique comprenant une source situee en surface et une flute monotrace tractee pres du fond de la mer a ete developpe par l'ifremer. Cette geometrie permet de reduire la taille de la zone de fresnel, et donc d'ameliorer la resolution spatiale. Un algorithme de correction geometrique et un algorithme de migration profondeur dedies a ce dispositif ont ete developpes. Les variations de la geometrie d'acquisition se traduisent sur la section sismique par des variations des temps d'arrivee. Comme il est primordial de comparer des donnees acquises avec ce systeme a des donnees de sismique classique, un algorithme visant a simuler une section a zero-offset a ete developpe. Cet algorithme est robuste et converge en peu d'iterations. De par la dissymetrie du dispositif, des evenements situes sur une meme trace ne correspondent pas a des points de reflexion situes a la meme abscisse le long du profil. Cela peut conduire a des interpretations erronees. Deux methodes de migration profondeur, celle proposee par bowen (1984) et une de type kirchhoff ont ete testees. La superiorite de l'algorithme de type kirchhoff est montree. Les ameliorations et tests ulterieurs sont definis.
APA, Harvard, Vancouver, ISO, and other styles
12

Marra, Elena <1979&gt. "Valutazione dell’impiego dei test per la genotipizzazione di HPV e l’espressione degli oncogeni virali nel follow-up di donne conizzate per lesioni cervicali di alto grado nello screening del cervico-carcinoma della Regione Emilia-Romagna." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amsdottorato.unibo.it/5572/.

Full text
Abstract:
Obiettivi: Valutare la prevalenza dei diversi genotipi di HPV in pazienti con diagnosi di CIN2/3 nella Regione Emilia-Romagna, la persistenza genotipo-specifica di HPV e l’espressione degli oncogeni virali E6/E7 nel follow-up post-trattamento come fattori di rischio di recidiva/persistenza o progressione di malattia; verificare l’applicabilità di nuovi test diagnostici biomolecolari nello screening del cervicocarcinoma. Metodi: Sono state incluse pazienti con citologia di screening anormale, sottoposte a trattamento escissionale (T0) per diagnosi di CIN2/3 su biopsia mirata. Al T0 e durante il follow-up a 6, 12, 18 e 24 mesi, oltre al Pap test e alla colposcopia, sono state effettuate la ricerca e la genotipizzazione dell'HPV DNA di 28 genotipi. In caso di positività al DNA dei 5 genotipi 16, 18, 31, 33 e/o 45, si è proceduto alla ricerca dell'HPV mRNA di E6/E7. Risultati preliminari: Il 95.8% delle 168 pazienti selezionate è risultato HPV DNA positivo al T0. Nel 60.9% dei casi le infezioni erano singole (prevalentemente da HPV 16 e 31), nel 39.1% erano multiple. L'HPV 16 è stato il genotipo maggiormente rilevato (57%). Il 94.3% (117/124) delle pazienti positive per i 5 genotipi di HPV DNA sono risultate mRNA positive. Abbiamo avuto un drop-out di 38/168 pazienti. A 18 mesi (95% delle pazienti) la persistenza dell'HPV DNA di qualsiasi genotipo era del 46%, quella dell'HPV DNA dei 5 genotipi era del 39%, con espressione di mRNA nel 21%. Abbiamo avuto recidiva di malattia (CIN2+) nel 10.8% (14/130) a 18 mesi. Il pap test era negativo in 4/14 casi, l'HPV DNA test era positivo in tutti i casi, l'mRNA test in 11/12 casi. Conclusioni: L'HR-HPV DNA test è più sensibile della citologia, l'mRNA test è più specifico nell'individuare una recidiva. I dati definitivi saranno disponibili al termine del follow-up programmato.
Objective. To evaluate the prevalence of several HPV genotypes in patients with CIN2/3 in Emilia-Romagna, the genotype-specific HPV DNA persistence and the expression of HPV oncogenes E6/E7 during follow-up after conisation, and their role in the prediction of residual disease; to verify the applicability of new molecular diagnostic tests in cervical cancer screening. Methods. Patients with abnormal screening citology treated by conisation (T0) for histologically confirmed CIN2/3 were included. At T0 and at 6, 12, 18 and 24 months of follow-up, in addition to the Pap smear and colposcopy, research and genotyping of HPV DNA of 28 types were performed. In case of positivity to the DNA of the 5 genotypes 16, 18, 31, 33 and/or 45, we proceeded to detect HPV E6/E7 mRNA. Preliminary results. The 95.8% of 168 selected patients were HPV DNA positive at T0. In 60.9% of cases the infections were single (mostly HPV 16 and 31), in 39.1% were multiple. HPV 16 was the most frequent genotype detected (57%). The 94.3% (117/124) of patients positive for 5 genotypes of HPV DNA were mRNA positive. Of the 168 patients 38 dropped out. At 18 months (95% of patients), the persistence of HPV DNA of any genotype was 46%, of HPV DNA of 5 genotypes was 39%, with mRNA expression in 21%. We found recurrent disease (CIN2 +) in 10.8% (14/130) at 18 months. Citology was negative in 4/14 cases, HPV DNA test was positive in all cases, mRNA testing in 11/12 cases. Conclusions: HR-HPV DNA test is more sensitive than cytology, mRNA testing is more specific in identifying a recurrence. Final data will be available after the follow-up planned.
APA, Harvard, Vancouver, ISO, and other styles
13

SAHRAOUI, HOUARI ABDELKRIM. "Application de la meta-modelisation a la generation des outils de conception et de mise en uvre des bases de donnees." Paris 6, 1995. http://www.theses.fr/1995PA066203.

Full text
Abstract:
La construction d'outils de conception et de mise en uvre des bases de donnees est une activite complexe, compte tenu de la masse de connaissances qu'elle met en jeu. La reduction de cette complexite necessite une structuration de ces connaissances. Dans cette optique, nous proposons un systeme d'aide a la construction de ces outils base sur les techniques de meta-modelisation. Le principe de la demarche sous-jacente a ce systeme est de voir un outil de conception et de mise en uvre des bases comme la somme de trois elements: (1) un editeur de schemas conceptuels base sur un formalisme de modelisation, (2) une representation logique correspondant a la famille du (ou des) sgbd cible(s), et (3) un mecanisme de transformation des schemas conceptuels en schemas logiques. A ces trois elements s'ajoutent des mecanismes de traductions des schemas logiques en codes dans les differents langages de description des sgbd. Notre systeme permet d'engendrer de maniere automatique et economique des editeurs de schemas conceptuels a partir des descriptions des formalismes de modelisation. Il permet en outre de decrire les representations logiques des sgbd. Il permet enfin de decrire les mecanismes de transformations des schemas conceptuels en schemas logiques par des systemes de regles. Nous avons utilise ce systeme pour reconstruire des outils existants. Les resultats de ces experiences ont permis d'envisager un travail de generalisation de cette demarche a la construction des ateliers de genie logiciel
APA, Harvard, Vancouver, ISO, and other styles
14

Apostol, Costin. "Apports bioinformatiques et statistiques à l'identification d'inhibiteurs du récepteur MET." Thesis, Lille 2, 2010. http://www.theses.fr/2010LIL2S053.

Full text
Abstract:
L’effet des polysaccharides sur l’interaction HGF-MET est étudié à l’aide d’un plan d’expérience comportant plusieurs puces à protéines sous différentes conditions d’expérimentation. Le but de l’analyse est la sélection des meilleurs polysaccharides inhibiteurs de l’interaction HGF-MET. D’un point de vue statistique c’est un problème de classification. Le traitement informatique et statistique des biopuces obtenues nécessite la mise en place de la plateforme PASE avec des plug-ins d’analyse statistique pour ce type de données. La principale caractéristique statistique de ces données est le caractère de répétition : l’expérience est répétée sur 5 puces et les polysaccharides, au sein d’une même puce, sont répliqués 3 fois. On n’est donc plus dans le cas classique des données indépendantes globalement, mais de celui d’une indépendance seulement au niveau intersujets et intrasujet. Nous proposons les modèles mixtes pour la normalisation des données et la représentation des sujets par la fonction de répartition empirique. L’utilisation de la statistique de Kolmogorov-Smirnov apparaît naturelle dans ce contexte et nous étudions son comportement dans les algorithmes de classification de type nuées dynamique et hiérarchique. Le choix du nombre de classes ainsi que du nombre de répétitions nécessaires pour une classification robuste sont traités en détail. L’efficacité de cette méthodologie est mesurée sur des simulations et appliquée aux données HGF-MET. Les résultats obtenus ont aidé au choix des meilleurs polysaccharides dans les essais effectués par les biologistes et les chimistes de l’Institut de Biologie de Lille. Certains de ces résultats ont aussi conforté l’intuition des ces chercheurs. Les scripts R implémentant cette méthodologie sont intégrés à la plateforme PASE. L’utilisation de l’analyse des données fonctionnelles sur ce type de données fait partie des perspectives immédiates de ce travail
The effect of polysaccharides on HGF-MET interaction was studied using an experimental design with several microarrays under different experimental conditions. The purpose of the analysis is the selection of the best polysaccharides, inhibitors of HGF-MET interaction. From a statistical point of view this is a classification problem. Statistical and computer processing of the obtained microarrays requires the implementation of the PASE platform with statistical analysis plug-ins for this type of data. The main feature of these statistical data is the repeated measurements: the experiment was repeated on 5 microarrays and all studied polysaccharides are replicated 3 times on each microarray. We are no longer in the classical case of globally independent data, we only have independence at inter-subjects and intra-subject levels. We propose mixed models for data normalization and representation of subjects by the empirical cumulative distribution function. The use of the Kolmogorov-Smirnov statistic appears natural in this context and we study its behavior in the classification algorithms like hierarchical classification and k-means. The choice of the number of clusters and the number of repetitions needed for a robust classification are discussed in detail. The robustness of this methodology is measured by simulations and applied to HGF-MET data. The results helped the biologists and chemists from the Institute of Biology of Lille to choose the best polysaccharides in tests conducted by them. Some of these results also confirmed the intuition of the researchers. The R scripts implementing this methodology are integrated into the platform PASE. The use of functional data analysis on such data is part of the immediate future work
APA, Harvard, Vancouver, ISO, and other styles
15

Raynaut, William. "Perspectives de méta-analyse pour un environnement d'aide à la simulation et prédiction." Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30005/document.

Full text
Abstract:
L'émergence du phénomène Big Data a créé un besoin grandissant en analyse de données, mais, bien souvent, cette analyse est conduite par des experts de différents domaines ayant peu d'expérience en science des données. On s'intéresse donc à ce besoin d'assistance à l'analyse de données, qui commence tout juste à recevoir une certaine attention des communautés scientifiques, donnant naissance au domaine de la méta-analyse. Les premières approches du sujet se révélant souvent similaires et peu abouties, on tente en particulier de permettre de nouvelles approches de méta-analyse pour adresser ce problème d'assistance à l'analyse de données. Pour ce faire, une première étape cruciale est de déterminer ce qu'est une méta-analyse performante, aucun standard n'ayant encore été établi dans ce domaine relativement neuf. On propose ainsi un cadre générique d'évaluation de méta-analyse, permettant de comparer et caractériser finement diverses techniques de méta- analyse. Ensuite, afin d'ouvrir de nouvelles voies, on s'intéresse à un verrou majeur de la méta-analyse : la caractérisation de jeu de données. On propose et évalue alors une caractérisation par dissimilarité faisant usage de toute l'information disponible pour autoriser de nouvelles approches de méta-analyse. L'utilisation de cette caractérisation par dissimilarité permettant de recommander facilement des processus d'analyse de données complets, on décrit enfin les nouvelles approches de méta-analyses rendues possibles, ainsi que les processus afférents d'assistance à l'analyse de données
The emergence of the big data phenomenon has led to increasing demands in data analysis, which most often are conducted by other domains experts with little experience in data science. We then consider this important demand in intelligent assistance to data analysis, which receives an increasing attention from the scientific community. The first takes on the subject often possessing similar shortcomings, we propose to address it through new processes of meta-analysis. No evaluation standard having yet been set in this relatively new domain, we first propose a meta-analysis evaluation framework that will allow us to test and compare the developed methods. In order to open new approaches of meta-analysis, we then consider one of its recurring issue: dataset characterization. We then propose and evaluate such a characterization, consisting in a dissimilarity between datasets making use of a precise topological description to compare them. This dissimilarity allows a new meta-analysis approach producing recommendations of complete data analysis processes, which we then evaluate on a proof of concept. We thus detail the proposed methods of meta-analysis, and the associated process of assistance to data analysis
APA, Harvard, Vancouver, ISO, and other styles
16

Kane, Abdou. "Assimilation de données in situ et satellitaires dans le modèle de biogéochimie marine PISCES." Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0017.

Full text
Abstract:
Le phytoplancton (algues microscopiques en suspension) dans l’océan joue un rôle important dans la machine climatique puisqu’il régule les concentrations de CO2 dans l’atmosphère en utilisant le CO2 dissous dans les eaux de surface pour la photosynthèse, ce qui induit une dissolution de CO2 atmosphérique dans l’océan. Ce phénomène dit de « pompe biologique océanique » est un processus qui est représenté dans les modèles numériques de biogéochimie marine. Couplés avec un modèle de circulation de l’océan, un modèle de biogéochimie marine comme PISCES, utilisé à l’IPSL, permet de mieux comprendre et quantifier les flux air-mer de CO2 et d'étudier le rôle que jouera la biologie marine dans les changements climatiques au cours des prochaines décennies. Cependant, la diversité des espèces de phytoplancton, la complexité des processus physiologiques mis en jeu et le manque de mesures disponibles imposent l’utilisation de paramétrages grossiers et incertains dans les modèles globaux de biogéochimie marine comme PISCES, ce qui limite fortement la précision des simulations. L’assimilation de données qui consiste à combiner objectivement un modèle et des observations afin d’en tirer le meilleur compromis possible offre un cadre rigoureux pour palier à ces insuffisances. L’objectif de cette thèse est de développer une méthode d’assimilation de données biogéochimiques in situ et satellitaires pour améliorer le modèle PISCES. La méthode variationnelle qui consiste à ajuster de manière itérative les paramètres du modèle afin de minimiser une distance entre les sorties de modèle et les observations, a été adopté. Ceci a été fait en utilisant le logiciel YAO développé à LOCEAN par l’équipe MMSA pour le codage de l’adjoint. On a ainsi mis en oeuvre une assimilation simultanée de plusieurs stations de mesures océanographiques contrastées (en terme biogéochimique) pour estimer 45 paramètres physiologiques du modèle PISCES. L’utilisation de ces paramètres optimisés pour effectuer des simulations libres longues (de 50 à 500 ans) nous a permis de mettre en évidence une nette amélioration des concentrations de chlorophylle par rapport au modèle standard, aussi bien pour les profils verticaux qui se rapprochent de ceux mesurés aux stations JGOFS que pour les cartes globales de surface lorsqu’on les compare à celles fournies par le satellite SeaWiFS. Dans la dernière partie de cette thèse, on montre qu’il est possible d’assimiler les données satellitaires de surface plutôt que les observations in situ, trop rares et dispersées, mais que pour ce faire il faut compléter l’information satellitaire sur la concentration en chlorophylle par des données climatologiques sur d’autres traceurs biogéochimiques important tels que les nitrates et les silicates. La discussion sur l’apport de ces nouveaux types de données constitue la conclusion de cette thèse
Phytoplankton (microscopic algae in suspension) in the ocean plays an important role in the climate since it regulates the concentration of CO2 in the atmosphere using the dissolved CO2 in surface water for photosynthesis. This biological activity induces dissolution of atmospheric CO2 in the ocean. This process called "oceanic biological pump" is is represented in numerical models of marine biogeochemistry. Coupled with a model of ocean circulation, a model of marine biogeochemistry as PISCES, used at IPSL, allows to better understand and quantify air-sea flux of CO2 and to study the role of marine biology in the climate change in coming decades. However, the species diversity of phytoplankton, the complexity of physiological processes involved and the lack of available measures require the use of coarse and uncertain parameterizations in global models of marine biogeochemistry, which severely limits the accuracy of simulations. Data assimilation which consists of combining objectively a model and observations to make the best possible compromise provides a rigorous framework to overcome these shortcomings. The objective of this thesis is to develop a method of assimilation of biogeochemical in situ and satellite data to improve the model PISCES. The variational method which consists to adjust iteratively the model parameters to minimize a distance to the observations was adopted, using the YAO software, developed at IPSL for the adjoint coding. A simultaneous assimilation of several contrasted oceanographic stations measurements (in terms biogeochemical) has been implemented to estimate 45 physiological parameters of the model PISCES. Using these optimized parameters to make long simulations (50 to 500 years) has allowed to demonstrate a significant improvement in chlorophyll concentration compared to the standard model, both for vertical profiles which resemble those measured at JGOFS stations and for global maps when compared to those provided by the SeaWiFS satellite. In the last part of this thesis, we show that it is possible to assimilate the satellite surface chlorophyll concentration rather than in situ vertical profiles, but to do this the satellite information on the concentration chlorophyll must supplement by climatological information on other important biogeochemical tracers such as nitrates and silicates. The discussion on the contribution of these new data types is the conclusion of this thesis
APA, Harvard, Vancouver, ISO, and other styles
17

Salmi, Cheik. "Vers une description et une modélisation des entrées des modèles de coût mathématiques pour l'optimisation des entrepôts de données." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2017. http://www.theses.fr/2017ESMA0006/document.

Full text
Abstract:
Les entrepôts de données (ED) sont devenus une technologie mature. L'accentuation des demandes d'analyse est motivée par l'évolution technologique, Les nouveaux paradigmes de programmation et L'ingénierie Dirigée par les Modèles (!DM). Avant d'utiliser ces progrès technologiques, l'entrepôt de données doit être construit et préparé pour sa bonne exploitation.La phase de construction a vu l'utilisation massive des efforts de description et de méta-modélisation afin de faciliter la définition des correspondances entre les schémas locaux des sources de données et le schéma de l'ED et de réduire l'hétérogénéité entre les sources. La phase d'exploitation et sa tâche physique, en particulier n'ont pas eu la même utilisation des solutions de description et de méta-modélisation, bien qu'elle est considérée comme un tunnel de toutes les phases de cycle de vie de conception d,un ED. Durant cette phase; des modèles de coût mathématiques sont utilisés pour quantifier la qualité des solutions proposées. Le développement de ces derniers nécessite des efforts de collection et d'analyse des paramètres pertinents.Pour bien simuler le fonctionnement d'un ED, toutes les dimensions d'un SGBD doivent être intégrées. Dans cette thèse, nous proposons de décrire en détail ces dimensions avec des mécanismes de méta-modélisation. Vu la similarité et la hiérarchisation gui existent entre les supports de stockage, nous avons développé une ontologie de domaine dédiée aux supports de stockage.Elle permet d'expliciter leurs propriétés. Les similarités entre ces supports nous a motivé à hybrider le cache mémoire avec les mémoires flashs pour augmenter sa capacité afin de stocker un nombre important de résultats intermédiaires partagés par plusieurs requêtes décisionnelles. La réutilisation de ces résultats permet d'augmenter la performance du SGBD. Nos contributions sont validées à l'aide des expérimentations en utilisant nos modèles de coût théoriques et le SGBD Oracle
Data warehouses (DW) have become a mature technology. The emphasis of the analysis requests is driven by technological change, the new programmig paradigms and ModelDriven Engineering (MDI). Before using these technological advances, the DW must be buil tand prepared for its proper operation. The construction phase bas seen massive description efforts and meta modeling to facilitate the definition of correspondence between local data sources schemas and DW schema and to reduce heterogeneity between sources. Despite its importance in all stages of the design life cycle of an DW, the operational phase and in particular its physical task, did not have the same interest in term of description and meta modeling. During this phase, mathematical cost models are used to quantify the quality of the solutions proposed. The development of these models requires collection efforts and analysis of relevant parameters. To simulate the operation of a DW, all the dimensions of a DBMS must be integrated. In this thesis, we propose to describe in detail these dimensions with meta-modeling mechanisms. Given the singularity and hierarchy between storage media, we have developed an ontology dedicated to storage media, which makes explicit their properties. The similarities between these supports motivated us to develop a hybrid cache based on flash memory. This increases the cache ability to store a large number of intermediate results shared by multiple decision-support queries. The reuse of these results will increase the overall performance of fue DBMS. Our contributions are validated with experiments using our theoretical cost models and the Oracle DBMS
APA, Harvard, Vancouver, ISO, and other styles
18

Hassan, Adel. "Style and Meta-Style : another Way to Reuse Software Architecture Evolution." Thesis, Nantes, 2018. http://www.theses.fr/2018NANT4041/document.

Full text
Abstract:
Au cours des dernières années, la taille et la complexité des systèmes logiciels ont considérablement augmenté, rendant le processus d'évolution plus complexe et consommant ainsi beaucoup de ressources. C’est pourquoi, l'architecture logicielle est devenue l'un des éléments les plus importants dans la planification et la mise en oeuvre du processus d'évolution. Cette abstraction permet une meilleure compréhension des décisions de conception prises précédemment et un bon moyen d'explorer, d'analyser et de comparer des scénarii alternatifs de l'évolution. Fort de constat, nous avons introduit une approche de styles d'évolution afin de capitaliser les pratiques d'évolution récurrentes dans un domaine particulier et de favoriser leur réutilisation. Dans cette thèse, nous préconisons en spécifiant un cadre de modélisation standard conforme à différents styles d'évolution et pouvant satisfaire les préoccupations de différentes équipes impliquées dans un processus d'évolution. Afin de relever les défis de la réutilisation de l’évolution de l'architecture logicielle, nous nous fixons comme objectif: D'abord, d'introduire un style de méta-évolution qui spécifie les éléments conceptuels de base nécessaires à la modélisation de l'évolution; ensuite, de décrire une nouvelle méthodologie pour développer un style d'évolution selon plusieurs vues et plusieurs abstractions. Cette approche multi-vues/multi-abstractions permet de réduire la complexité du modèle de processus d'évolution en décomposant un style d'évolution en plusieurs vues et abstractions pertinentes. Enfin, pour la validité et la faisabilité de notre approche, nous avons développé un prototype basé sur la plateforme de méta-modélisation ADOxx
Over the last years, the size and complexity of software systems has been dramatically increased, making the evolution process more complex and consuming a great deal of resources. Consequently, software architecture is becoming an important artifact in planning and carrying out the evolution process. It can provide an overall structural view of the system without undue focus on low-level details. This view can provide a deep understanding of previous design decisions and a means of analysing and comparing alternative evolution scenarios. Therefore, software architecture evolution has gained significant importance in developing methods, techniques and tools that can help architects to plan evolution. To this end, an evolution styles approach has been introduced with the aim of capitalising on the recurrent evolution practices and of fostering their reuse In this thesis, we endeavour to tackle the challenges in software architecture evolution reuse by specifying a standard modeling framework that can conform to different evolution styles and satisfy the concerns of the different stakeholder groups. The primary contribution of this thesis is twofold. First, it introduces a meta-evolution style which specifies the core conceptual elements for software architecture evolution modeling. Second, it introduces a new methodology to develop a multi-view & multi-abstraction evolution style in order to reduce the complexity of the evolution model by breaking down an evolution style into several views, each of which covers a relevant set of aspects. The central ideas are embodied in a prototype tool in order to validate the applicability and feasibility of the proposed approaches
APA, Harvard, Vancouver, ISO, and other styles
19

HUSSEIN, HASHIM. "Le statut juridique de la mer rouge et les voies d'eaux qui lui donnent acces. Introduction ou management des conflits entre les usagers." Nantes, 1989. http://www.theses.fr/1989NANT4010.

Full text
Abstract:
La mer rouge est une etendue d'eaux longue et etroite qui separe le nord est africain de la presqu'ile arabique. Elle est un des espaces maritimes les plus interessant et les plus complex au monde: la these a pour but d'evaluer et de faire un certain nombre d'observation concernant les attidudes et la politique des etats riverains de la mer rouge sur le developement de di aspects du droit de la mer et de faire une etude analytique sur les implications de ces developpements pour les regimes des voies navigable de la mer rouge c'est dire le canal de suez, le golfe d'aquaba et le detriut de bab el mandeb
The red sea is a long, narrow body of water separating north-east africa from the arabian peninsula. It is one of the most interesting and complex sea spaces in the world. The thesis aims at evaluting and make certain observations conerning the attitudes general practice and politcs of the red sea riparain on the development of the different aspects of of the law of the sea, and to give a full analytical work on the implications of this development for the legal regimes of the red sea waterways the suez canal golfe of aqaba and the trait of bab al-mandeb)
APA, Harvard, Vancouver, ISO, and other styles
20

Bouillot, Flavien. "Classification de textes : de nouvelles pondérations adaptées aux petits volumes." Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS167.

Full text
Abstract:
Au quotidien, le réflexe de classifier est omniprésent et inconscient. Par exemple dans le processus de prise de décision où face à un élément (un objet, un événement, une personne) nous allons instinctivement chercher à rapprocher cet élément d'autres similaires afin d'adapter nos choix et nos comportements. Ce rangement dans telle ou telle catégorie repose sur les expériences passées et les caractéristiques de l'élément. Plus les expériences seront nombreuses et les caractéristiques détaillées, plus fine et pertinente sera la décision. Il en est de même lorsqu'il nous faut catégoriser un document en fonction de son contenu. Par exemple détecter s'il s'agit d'un conte pour enfants ou d'un traité de philosophie. Ce traitement est bien sûr d'autant plus efficace si nous possédons un grand nombre d'ouvrages de ces deux catégories et que l'ouvrage à classifier possède un nombre important de mots.Dans ce manuscrit nous nous intéressons à la problématique de la prise de décision lorsque justement nous disposons de peu de documents d'apprentissage et que le document possède un nombre de mots limité. Nous proposons pour cela une nouvelle approche qui repose sur de nouvelles pondérations. Elle nous permet de déterminer avec précision l'importance à accorder aux mots composant le document.Afin d'optimiser les traitements, nous proposons une approche paramétrable. Cinq paramètres rendent notre approche adaptable, quel que soit le problème de classification donné. De très nombreuses expérimentations ont été menées sur différents types de documents, dans différentes langues et dans différentes configurations. Selon les corpus, elles mettent en évidence que notre proposition nous permet d'obtenir des résultats supérieurs en comparaison avec les meilleures approches de la littérature pour traiter les problématiques de petits volumes.L'utilisation de paramètres introduit bien sur une complexité supplémentaire puisqu'il faut alors déterminer les valeurs optimales. Détecter les meilleurs paramètres et les meilleurs algorithmes est une tâche compliquée dont la difficulté est théorisée au travers du théorème du No-Free-Lunch. Nous traitons cette seconde problématique en proposant une nouvelle approche de méta-classification reposant sur les notions de distances et de similarités sémantiques. Plus précisément nous proposons de nouveaux méta-descripteurs adaptés dans un contexte de classification de documents. Cette approche originale nous permet d'obtenir des résultats similaires aux meilleures approches de la littérature tout en offrant des qualités supplémentaires.Pour conclure, les travaux présentés dans ce manuscrit ont fait l'objet de diverses implémentations techniques, une dans le logiciel Weka, une dans un prototype industriel et enfin une troisième dans le logiciel de la société ayant financé ces travaux
Every day, classification is omnipresent and unconscious. For example in the process of decision when faced with something (an object, an event, a person), we will instinctively think of similar elements in order to adapt our choices and behaviors. This storage in a particular category is based on past experiences and characteristics of the element. The largest and the most accurate will be experiments, the most relevant will be the decision. It is the same when we need to categorize a document based on its content. For example detect if there is a children's story or a philosophical treatise. This treatment is of course more effective if we have a large number of works of these two categories and if books had a large number of words. In this thesis we address the problem of decision making precisely when we have few learning documents and when the documents had a limited number of words. For this we propose a new approach based on new weights. It enables us to accurately determine the weight to be given to the words which compose the document.To optimize treatment, we propose a configurable approach. Five parameters make our adaptable approach, regardless of the classification given problem. Numerous experiments have been conducted on various types of documents in different languages and in different configurations. According to the corpus, they highlight that our proposal allows us to achieve superior results in comparison with the best approaches in the literature to address the problems of small dataset. The use of parameters adds complexity since it is then necessary to determine optimitales values. Detect the best settings and best algorithms is a complicated task whose difficulty is theorized through the theorem of No-Free-Lunch. We treat this second problem by proposing a new meta-classification approach based on the concepts of distance and semantic similarities. Specifically we propose new meta-features to deal in the context of classification of documents. This original approach allows us to achieve similar results with the best approaches to literature while providing additional features. In conclusion, the work presented in this manuscript has been integrated into various technical implementations, one in the Weka software, one in a industrial prototype and a third in the product of the company that funded this work
APA, Harvard, Vancouver, ISO, and other styles
21

Verdoit-Jarraya, Marion. "Caractérisation et modélisation de la dynamique spatiale et saisonnière de populations démersales et benthiques exploitées de la Mer Celtique." Paris 6, 2003. http://www.theses.fr/2003PA066596.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Kaddes, Mourad. "Etudes des transactions plates et étendues dans les SGBD temps réels." Thesis, Le Havre, 2013. http://www.theses.fr/2013LEHA0009/document.

Full text
Abstract:
ACette thèse s’intéresse à l’étude des modèles de transactions plates et étendues dans les SGBD temps réel (SGBDTR). Ce travail est réalisé en deux étapes : (i) la première étape vise à aider les concepteurs à décrire et comparer les modèles de transactions temps réel, (ii) La seconde étape permet de compléter cette étude par la présentation d’une étude stochastique des performances des SGBDTR de deux modèles de transactions temps réel, à savoir le modèle de transactions plates et le modèle de transactions emboîtées. Dans la première étape, nous avons présenté le méta-modèle « MRT-ACTA » qui prend en compte les caractéristiques temporelles des transactions et de données temps réel ainsi que leurs interactions, offrant ainsi aux concepteurs la possibilité de définir de nouveaux modèles de transactions temps réel et de les comparer. La description formelle de « M-RT-ACTA » a permis de valider nos propositions. Pour compléter ce travail et ayant constaté que l’ordonnancement des transactions est un aspect primordial dans les SGBDTR, nous avons proposé dans la seconde étape de présenter une étude stochastique des performances des SGBDTR. Ainsi, nous avons proposé une amélioration des taux de succès des transactions plates avec le protocole GEDF (généralisation de EDF) et nous avons adapté cette étude aux transactions emboîtées
This thesis presents a study of flat and extended model of transactions in real-time DBMS (RTDBMSs). This study is carried in two steps : (i) the first step aims to help designers to describe and compare models of real-time transactions, (ii) the second step allows to complete this study by presenting a stochastic study of RTDBMSs performance using two models of real-time transactions : flat transactions and nested transactions models. In the first step, we introduced the meta-model « MRT-ACTA » that takes into account the transactions and data temporal characteristics and their realtime interactions. « M-RT-ACTA » allows designers defining and comparing new models of real-time transactions. The formal description of « M-RT-ACTA » validates our proposals. In order to complete this work, we have observed that transactions scheduling is an important area in RTDBMSs, so we proposed in the second step a stochastic study of RTDBMS performance. Thus, we have proposed to improve the success ratio of flat transactions with GEDF protocol (generalization of GEDF) and we have adapted this study to nested transactions
APA, Harvard, Vancouver, ISO, and other styles
23

Chakroun, Chedlia. "Contribution à la définition d'une méthode de conception de bases de données à base ontologique." Phd thesis, ISAE-ENSMA Ecole Nationale Supérieure de Mécanique et d'Aérotechique - Poitiers, 2013. http://tel.archives-ouvertes.fr/tel-00904117.

Full text
Abstract:
Récemment, les ontologies ont été largement adoptées par différentes entreprises dans divers domaines. Elles sontdevenues des composantes centrales dans bon nombre d'applications. Ces modèles conceptualisent l'univers du discours auxmoyens de concepts primitifs et parfois redondants (calculés à partir de concepts primitifs). Au début, la relation entreontologies et base de données a été faiblement couplée. Avec l'explosion des données sémantiques, des solutions depersistance assurant une haute performance des applications ont été proposées. En conséquence, un nouveau type de base dedonnées, appelée base de données à base ontologique (BDBO) a vu le jour. Plusieurs types de BDBO ont été proposés, ilsutilisent différents SGBD. Chaque BDBO possède sa propre architecture et ses modèles de stockage dédiés à la persistancedes ontologies et de ses instances. A ce stade, la relation entre les bases de données et les ontologies devient fortementcouplée. En conséquence, plusieurs études de recherche ont été proposées sur la phase de conception physique des BDBO.Les phases conceptuelle et logique n'ont été que partiellement traitées. Afin de garantir un succès similaire au celui connupar les bases de données relationnelles, les BDBO doivent être accompagnées par des méthodologies de conception et desoutils traitant les différentes étapes du cycle de vie d'une base de données. Une telle méthodologie devrait identifier laredondance intégrée dans l'ontologie. Nos travaux proposent une méthodologie de conception dédiée aux bases de données àbase ontologique incluant les principales phases du cycle de vie du développement d'une base de données : conceptuel,logique, physique ainsi que la phase de déploiement. La phase de conception logique est réalisée grâce à l'incorporation desdépendances entre les concepts ontologiques. Ces dépendances sont semblables au principe des dépendances fonctionnellesdéfinies pour les bases de données relationnelles. En raison de la diversité des architectures des BDBO et la variété desmodèles de stockage utilisés pour stocker et gérer les données ontologiques, nous proposons une approche de déploiement àla carte. Pour valider notre proposition, une implémentation de notre approche dans un environnement de BDBO sousOntoDB est proposée. Enfin, dans le but d'accompagner l'utilisateur pendant le processus de conception, un outil d'aide à laconception des bases de données à partir d'une ontologie conceptuelle est présenté
APA, Harvard, Vancouver, ISO, and other styles
24

El, Abed Walid. "Meta modèle sémantique et noyau informatique pour l'interrogation multilingue des bases de données en langue naturelle (théorie et application)." Besançon, 2001. http://www.theses.fr/2001BESA1014.

Full text
Abstract:
L'interrogation d'une base de données relationnelles, par un non spécialiste, constitue un véritable problème. En effet, l'utilisateur final doit au préalable connaître le langage de requête SQL (Structured Query Langage) et la structure, souvent complexe, de la base de données. Dans un tel contexte, il devient essentiel d'organiser des domaines interrogeables en langue naturelle. Un domaine est une base de données regroupant toute l'information pertinente autour d'un thème ou d'un sujet offrant ainsi la possibilité à l'utilisateur d'accéder à l'information sur le sujet en utilisant le langage naturel. . .
APA, Harvard, Vancouver, ISO, and other styles
25

Sun-Hosoya, Lisheng. "Meta-Learning as a Markov Decision Process." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS588/document.

Full text
Abstract:
L'apprentissage automatique (ML) a connu d'énormes succès ces dernières années et repose sur un nombre toujours croissant d'applications réelles. Cependant, la conception d'algorithmes prometteurs pour un problème spécifique nécessite toujours un effort humain considérable. L'apprentissage automatique (AutoML) a pour objectif de sortir l'homme de la boucle. AutoML est généralement traité comme un problème de sélection d’algorithme / hyper-paramètre. Les approches existantes incluent l’optimisation Bayésienne, les algorithmes évolutionnistes et l’apprentissage par renforcement. Parmi eux, auto-sklearn, qui intègre des techniques de meta-learning à l'initialisation de la recherche, occupe toujours une place de choix dans les challenges AutoML. Cette observation a orienté mes recherches vers le domaine du meta-learning. Cette orientation m'a amené à développer un nouveau cadre basé sur les processus de décision Markovien (MDP) et l'apprentissage par renforcement (RL). Après une introduction générale (chapitre 1), mon travail de thèse commence par une analyse approfondie des résultats du Challenge AutoML (chapitre 2). Cette analyse a orienté mon travail vers le meta-learning, menant tout d’abord à proposer une formulation d’AutoML en tant que problème de recommandation, puis à formuler une nouvelle conceptualisation du problème en tant que MDP (chapitre 3). Dans le cadre du MDP, le problème consiste à remplir de manière aussi rapide et efficace que possible une matrice S de meta-learning, dans laquelle les lignes correspondent aux tâches et les colonnes aux algorithmes. Un élément de matrice S (i, j) est la performance de l'algorithme j appliqué à la tâche i. La recherche efficace des meilleures valeurs dans S nous permet d’identifier rapidement les algorithmes les mieux adaptés à des tâches données. Dans le chapitre 4, nous examinons d’abord le cadre classique d’optimisation des hyper-paramètres. Au chapitre 5, une première approche de meta-learning est introduite, qui combine des techniques d'apprentissage actif et de filtrage collaboratif pour prédire les valeurs manquantes dans S. Nos dernières recherches appliquent RL au problème du MDP défini pour apprendre une politique efficace d’exploration de S. Nous appelons cette approche REVEAL et proposons une analogie avec une série de jeux pour permettre de visualiser les stratégies des agents pour révéler progressivement les informations. Cette ligne de recherche est développée au chapitre 6. Les principaux résultats de mon projet de thèse sont : 1) Sélection HP / modèle : j'ai exploré la méthode Freeze-Thaw et optimisé l'algorithme pour entrer dans le premier challenge AutoML, obtenant la 3ème place du tour final (chapitre 3). 2) ActivMetaL : j'ai conçu un nouvel algorithme pour le meta-learning actif (ActivMetaL) et l'ai comparé à d'autres méthodes de base sur des données réelles et artificielles. Cette étude a démontré qu'ActiveMetaL est généralement capable de découvrir le meilleur algorithme plus rapidement que les méthodes de base. 3) REVEAL : j'ai développé une nouvelle conceptualisation du meta-learning en tant que processus de décision Markovien et je l'ai intégrée dans le cadre plus général des jeux REVEAL. Avec un stagiaire en master, j'ai développé des agents qui apprennent (avec l'apprentissage par renforcement) à prédire le meilleur algorithme à essayer. Le travail présenté dans ma thèse est de nature empirique. Plusieurs méta-données du monde réel ont été utilisées dans cette recherche. Des méta-données artificielles et semi-artificielles sont également utilisées dans mon travail. Les résultats indiquent que RL est une approche viable de ce problème, bien qu'il reste encore beaucoup à faire pour optimiser les algorithmes et les faire passer à l’échelle aux problèmes de méta-apprentissage plus vastes
Machine Learning (ML) has enjoyed huge successes in recent years and an ever- growing number of real-world applications rely on it. However, designing promising algorithms for a specific problem still requires huge human effort. Automated Machine Learning (AutoML) aims at taking the human out of the loop and develop machines that generate / recommend good algorithms for a given ML tasks. AutoML is usually treated as an algorithm / hyper-parameter selection problems, existing approaches include Bayesian optimization, evolutionary algorithms as well as reinforcement learning. Among them, auto-sklearn which incorporates meta-learning techniques in their search initialization, ranks consistently well in AutoML challenges. This observation oriented my research to the Meta-Learning domain. This direction led me to develop a novel framework based on Markov Decision Processes (MDP) and reinforcement learning (RL).After a general introduction (Chapter 1), my thesis work starts with an in-depth analysis of the results of the AutoML challenge (Chapter 2). This analysis oriented my work towards meta-learning, leading me first to propose a formulation of AutoML as a recommendation problem, and ultimately to formulate a novel conceptualisation of the problem as a MDP (Chapter 3). In the MDP setting, the problem is brought back to filling up, as quickly and efficiently as possible, a meta-learning matrix S, in which lines correspond to ML tasks and columns to ML algorithms. A matrix element S(i, j) is the performance of algorithm j applied to task i. Searching efficiently for the best values in S allows us to identify quickly algorithms best suited to given tasks. In Chapter 4 the classical hyper-parameter optimization framework (HyperOpt) is first reviewed. In Chapter 5 a first meta-learning approach is introduced along the lines of our paper ActivMetaL that combines active learning and collaborative filtering techniques to predict the missing values in S. Our latest research applies RL to the MDP problem we defined to learn an efficient policy to explore S. We call this approach REVEAL and propose an analogy with a series of toy games to help visualize agents’ strategies to reveal information progressively, e.g. masked areas of images to be classified, or ship positions in a battleship game. This line of research is developed in Chapter 6. The main results of my PhD project are: 1) HP / model selection: I have explored the Freeze-Thaw method and optimized the algorithm to enter the first AutoML challenge, achieving 3rd place in the final round (Chapter 3). 2) ActivMetaL: I have designed a new algorithm for active meta-learning (ActivMetaL) and compared it with other baseline methods on real-world and artificial data. This study demonstrated that ActiveMetaL is generally able to discover the best algorithm faster than baseline methods. 3) REVEAL: I developed a new conceptualization of meta-learning as a Markov Decision Process and put it into the more general framework of REVEAL games. With a master student intern, I developed agents that learns (with reinforcement learning) to predict the next best algorithm to be tried. To develop this agent, we used surrogate toy tasks of REVEAL games. We then applied our methods to AutoML problems. The work presented in my thesis is empirical in nature. Several real world meta-datasets were used in this research. Artificial and semi-artificial meta-datasets are also used in my work. The results indicate that RL is a viable approach to this problem, although much work remains to be done to optimize algorithms to make them scale to larger meta-learning problems
APA, Harvard, Vancouver, ISO, and other styles
26

Mascret, Ariane. "Développement d'une approche SIG pour l'intégration de données Terre/Mer." Phd thesis, Ecole nationale supérieure d'arts et métiers - ENSAM, 2010. http://pastel.archives-ouvertes.fr/pastel-00542500.

Full text
Abstract:
Le domaine maritime littoral constitue un milieu fragile, placé à l'interface Terre/Mer où s'exercent de nombreuses pressions issues des milieux terrestres, maritimes et atmosphériques. Les approches globales de Gestion Intégrée des Zones Côtières (GIZC) ont pour but de pallier les lacunes des politiques précédentes au niveau des interactions simultanées des différents acteurs du littoral. Cette approche requiert un Modèle Numérique de Terrain (MNT) littoral continu ainsi que des données maritimes et terrestres cohérentes entre elles. En raison d'acquisitions ou de productions différentes pour les MNT terrestres et maritimes, l'ensemble du relief n'est pas traité de manière ni homogène ni continue. De plus les techniques d'intégration des MNT actuelles entraînent des lissages des reliefs, voire la perte des éléments caractéristiques. Des outils et une nouvelle méthodologie d'intégration de MNT ont donc été définis. Les outils utilisent la distance de Fréchet pour calculer une distance maximale d'écartement entre les points homologues de deux lignes. La valeur de cette distance donne une mesure de ressemblance de forme qui sert de base à leur appariement ultérieur. La méthodologie de fusion proposée dans cette thèse se veut générique tout en s'appuyant sur les lignes caractéristiques spécifiques du paysage. Elle effectue un enchaînement de traitements répartis en trois étapes majeures : 1) transformations cartographiques et analyse des zones de recouvrement ; 2) segmentation et extraction de lignes caractéristiques ; 3) appariement et fusion à l'aide de déformations élastiques. Ces outils d'intégration ont été testés sur des données réelles en 2D pour la comparaison du trait de côte, puis validés sur des MNT simulés 3D.
APA, Harvard, Vancouver, ISO, and other styles
27

Couffin, Florent. "Modèle de données de référence et processus de spécialisation pour l'intégration des activités de conception en génie automatique." Cachan, Ecole normale supérieure, 1997. http://www.theses.fr/1997DENS0005.

Full text
Abstract:
La conception des systèmes automatisés de production, systèmes artificiels complexes, nécessite la coopération de nombreuses activités. Chacune de ces activités est en général réalisée par un acteur - concepteur. Pour améliorer la coopération entre ces acteurs - concepteurs, il est nécessaire qu'ils puissent communiquer. Le principe choisi pour réaliser cette communication est base sur l'intégration par les données. Cette intégration repose sur un modèle de données commun, appelé modèle particulier, représentant l'univers du discours particulier des acteurs - concepteurs impliques dans la communication. Ce modèle a pour objet d'offrir aux acteurs - concepteurs un référentiel commun leur permettant d'avoir une interprétation unique des données échangées ou partagées. Afin de représenter ces modèles, nous définissons un outil de modélisation adapte a la description des données manipulées en génie automatique. Nous proposons un outil de modélisation, base sur le modèle entité - relation. Deux extensions sont introduites, l'une permet de décrire des identifications relatives d'objets et l'autre des contraintes d'existence entre objets. Pour faciliter la conception des modèles particuliers, nous proposons une méthode de réutilisation de modèles génériques appelés modèles de référence. Cette méthode est constituée d'une suite d'étapes permettant de spécialiser un modèle de référence pour obtenir un modèle particulier. Pour chacune des étapes de la méthode, nous définissons des opérations de spécialisation et des règles de validation basées sur une algèbre entité - relation. Enfin, nous définissons un modèle de référence pour le génie automatique basée sur l'extension du modèle de référence normalise base-PTA. Ce modèle de référence est construit par intégration des méta-modèles des outils de modélisation du génie automatique au modèle base-PTA
APA, Harvard, Vancouver, ISO, and other styles
28

Le, Berre Iwan. "Mise au point de méthodes d'analyse et de représentation des interactions complexes en milieu littoral." Brest, 1999. http://www.theses.fr/1999BRES1008.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Bazile, Jeanne. "Intégration de données publiques et analyses protéomiques pour révéler les mécanismes et biomarqueurs du dépôt de lipides dans la carcasse ou le muscle bovin." Thesis, Université Clermont Auvergne‎ (2017-2020), 2019. http://www.theses.fr/2019CLFAC074.

Full text
Abstract:
L’équilibre entre les masses des tissus musculaire (TM) et adipeux (TA) conditionne le poids de carcasse et son rendement (rapport TM et TA), mais aussi les qualités sensorielle et nutritionnelle des viandes. Comprendre comment contrôler le rapport des masses de muscle relativement à celle des tissus adipeux reste un enjeu majeur pour les filières de production bovine. Les méthodes omiques ont abondamment été utilisées pour comprendre les mécanismes explicatifs de la variabilité du croît ou de la masse des tissus adipeux et musculaire chez le bovin. Cependant, à partir de cette masse de données, il n’est pas toujours aisé d’extraire ou de générer une information biologique synthétique. L’objectif de ma thèse était donc d’agréger et de ré-analyser des données publiques pour proposer des gènes ou protéines marqueurs de l’adiposité corporelle ou musculaire, compléter les connaissances disponibles ou identifier des manques de données. Pour ce faire, des techniques in silico et expérimentale ont été combinées. La majorité des données disponibles dans les bases publiques concernaient le muscle et étaient des données transcriptomiques, rarement protéomiques. Les résultats de 5 publications comparant le protéome musculaire de bovins divergents pour la teneur en lipides intramusculaires ont été agrégés pour identifier 50 protéines avec des abondances divergentes, dont 9 trouvées dans au moins 2 publications. Ces données ayant été obtenues chez des races précoces, nous avons analysé le protéome d’une race plus tardive. Le muscle Longissimus thoracis de bovins, Rouges des Prés divergents par les adiposités musculaire et corporelle ont été analysés par les techniques de shotgun et de 2DE. Sur les 47 protéines liées significativement aux dépôts adipeux dans le muscle ou la carcasse, 21 étaient communes avec les résultats publiés, et 26 n’avaient jamais été identifiées. En particulier, l’abondance d’APOBEC2 était fortement corrélée à l’adiposité de la carcasse et du muscle.Parmi les données issues de puces à ADN accessibles dans les bases de données publiques, 84 et 12 jeux de données relatifs, respectivement à la croissance musculaire et adipeuse, ont été sélectionnés. En raison de manques dans les métadonnées, seulement 33 (32 « TM », 1 « TA ») d’entre eux ont été rendus comparables par la mise à jour des noms de gène sur le génome bovin actuel (UCD1.2 ; collaboration avec Sigenae). Les données des 32 jeux de données « muscle » ont été catégorisées selon l’âge, la race, le sexe ou l’alimentation. Par catégorie, les données ont été regroupées et analysées par combinaison de valeurs p selon la méthode inverse normale (collaboration avec l’UMR Gabi). Pour la catégorie âge, facteur de variation majeur de la teneur en lipides intramusculaires, nous avons identifié 238 gènes (sur les 715 communs à 10 jeux de données) différentiellement exprimés dans le longissimus dorsi de bovins de 5 races. Parmi ces 238 gènes, 97 étaient différentiels dans au moins 2 des jeux de données analysés individuellement et la méta-analyse. Ils confirmaient par exemple la dynamique de régulation des métabolismes glycolytiques et oxydatif en fonction de l’âge des bovins. 17 gènes ont été identifiés comme différentiel selon l’âge exclusivement dans la méta-analyse. Parmi les gènes identifiés certains sont liés au métabolisme des lipides (APOE, LDLR, MXRA8) et d’autres pourraient induire (YBX1) ou réprimer (MAPK14, YWAH, ERBB2), la différenciation de cellules progénitrices musculaires vers le lignage adipeux. L’intégration de données publiques, notamment par la méta-analyse, a donc augmenté les connaissances sur les mécanismes biologiques et biomarqueurs contribuant au rapport TA/TM. Les relations entre les abondances des molécules identifiées et des critères d’adiposité restent à quantifier dans une perspective de validation des biomarqueurs
Producing meat animals with adequate muscular and adipose masses (i.e. lean-to-fat ratio) is an economic challenge for the beef industry. The lean-to-fat ratio influence weight and yield of carcasses as well as the sensorial and nutritional quality of the meat. Omics methods have been widely used to understand mechanisms underlying the variability of the adipose and muscle tissue growth in the bovine. However, it is not always easy to extract or generate a synthetic biological information from this volume of data. The objective of my thesis was to aggregate and analyse public data to propose genes or proteins related to the lean-to-fat, and to identify data to be completed by experiment. To achive this goal, experimental and in silico methods were combined.Majority of available data in public databases were muscle transcriptomic data, and very rarely proteomic data. Data from 5 publications comparing muscle proteome of bovine breeds divergent in their intramuscular lipid content were aggregated and allowed the identification of 50 differently abundant proteins. Of these, 9 were concordant in at least 2 publications. As those data were obtained only in late-maturing breeds, we analysed proteome of “Rouges des Prés” cows which deposit fat in a later stage of development. Longissimus thoracis muscle of bovine “Rouges des prés”, that diverges in their muscular and corporal adiposity were analysed by shotgun and 2DE techniques. Of the 47 proteins significatively associated to adipose depots in muscle or carcass, 21 were common to published data and 26 had never been identified before. Particularly, APOBEC2 abundance was strongly correlated with both carcass and muscle adiposity.Among the microarray data available in the public databases, 84 and 12 datasets relative to muscular and adipose growth were selected, respectively. Because of missing metadata, only 33 (32 “MT” and 1 “AT”) were used and their identifiers updated on the current bovine genome (UCD1.2; collaboration with Sigenae). Data of 32 “muscle” datasets were categorized according to the age, breed, sex or nutrition. Data were regrouped by categories and analysed by p-value combination according to the inverse normal method (collaboration with Gabi UMR). For the age category, a major factor influencing intramuscular lipid content, we identified 238 genes differentially expressed between two ages in longissimus dorsi of bovine of 5 different breeds. Among these 238 genes, 97 were identified in at least 2 datasets analysed individually and in the meta-analysis. The meta-analysis confirmed the dynamic regulation of glycolytic and oxidative metabolisms depending on bovine age. 17 genes were exclusively identified in the meta-analysis as differentially expressed between two ages. Among the identified genes, some are linked to lipid metabolism (APOE, LDLR, MXRA8) and other may induce (YBX1) or repress (MAPK14, YWAH, ERBB2) the differentiation of muscle progenitor cells towards the adipose lineage.Integration of public data, in particular by the meta-analysis, provided a global view of biological mechanisms and biomarkers (genes or proteins) of the lean-to-fat ratio that were the most frequently identified in several breeds. The relationships between the abundances of the identified molecules and adiposity criteria remain to be quantified in a perspective of biomarker validation (prior to animal slaughter/ without the need to slaughter the animal).Integration of public data, in particular by the meta-analysis, allowing to aquire a global view of biological mechanisms and biomarkers (genes or proteins) of the AT to MT ratio. This approach will allow to check and evaluate carcass and muscle AT percentage from gene or protein abundance prior to animal slaughter/ without the need to slaughter the animal
APA, Harvard, Vancouver, ISO, and other styles
30

FONTAINE, CHRISTINE. "Sismicite et structure en vitesse de la bordure cotiere de la marge nord ligure a partir des donnees de la campagne a terre et en mer sisbalig ii. Hypotheses sur la formation et l'evolution actuelle de la marge." Paris 6, 1996. http://www.theses.fr/1996PA066555.

Full text
Abstract:
La marge continentale nord ligure borde la partie septentrionale du bassin ligure (ne de la mediterranee occidentale), un ocean forme a l'oligocene superieur, en 3 ma environ. Actuellement, une activite microsismique intense, avec l'occurence de quelques seismes de magnitude plus elevee, est observee, du nord au sud, sur la zone cotiere, au pied de la marge, et jusqu'a l'axe du bassin. Cependant la deformation de cette zone de transition entre un domaine de croute tres aminci (le bassin ligure) et un domaine de croute epaissi (les alpes occidentales) n'est pas bien comprise: il manque notamment des donnees sur la localisation spatiale de la sismicite et sur la structure crustale sous la marge. Un des objectifs principaux de la campagne sismologique sisbalig ii (septembre-novembre 1992) etait precisement de mieux localiser cette sismicite, en implantant un reseau dense et homogene de stations terrestres et marines (obs) courte periode (4. 5 hz), trois composantes le plus pres des zones actives. Les heterogeneites crustales complexifiant le calcul de la localisation de la sismicite, un travail methodologique de localisation est effectue avec quatre programmes. La precision de localisation de cinquante seismes est evaluee. Cette sismicite est ensuite restituee dans le contexte sismique regional avec une etude comparative des catalogues de sismicite du cea/ldg et du dister (genes). Les zones sismogenes sont mieux decrites en pied de marge et dans le bassin: un approfondissement de la sismicite du bassin (se) vers la zone cotiere (nw) est mis en evidence. L'interpretation de ces observations amene l'hypothese de la superposition au pied de la marge, d'un systeme de failles compressives a vergence nord dans la croute inferieure a moyenne et d'un systeme superficiel de failles normales et transverses. L'opportunite d'un reseau sismologique dense en nappes a ete saisie pour mener une etude sur la structure en vitesse de la marge: choix de tirs de carriere avec evaluation de la precision de leurs parametres de localisation, et choix d'une geometrie de sources et de capteurs pertinente (profil). L'interpretation et la modelisation de phases reflechies et refractees sur deux interfaces de la croute aboutissent a la proposition d'un modele de vitesse de la zone cotiere unidimensionnel, plan et homogene de direction sw-ne. L'existence d'un reflecteur majeur a 6 km de profondeur est revelee. La precision sur la profondeur de ces interfaces et la vitesse des couches est donnee. Ce modele de vitesse amene trois hypotheses de formation de la marge nord ligure. L'hypothese du role preponderant de l'heritage structural dans l'evolution geodynamique du bassin ligure est discutee
APA, Harvard, Vancouver, ISO, and other styles
31

ORPHANIDIS, ELIE. "Conditions physicochimiques de precipitation de la barytine epigenetique dans le bassin sud-ouest de la fosse atlantis ii (mer rouge) : donnees des inclusions fluides et approche experimentale. implications pour le depot des metaux de base et des metaux precieux." Orléans, 1995. http://www.theses.fr/1995ORLE2022.

Full text
Abstract:
Les mineralisations epigenetiques observees dans les sediments hydrothermaux de la fosse atlantis ii (mer rouge centrale) comprennent un niveau (980 cm) riche en metaux de base et metaux precieux (ba, zn, au, ag). L'etude microthermometrique des inclusions fluides de la barytine montre qu'elle a precipite a partir d'un fluide monophase, dont la salinite varie entre 17 et 26% nacl a des temperatures comprises entre 50 et 420c. La temperature d'ebullition dans les conditions de pression hydrostatique du niveau etudie (220 bars) etant de 390c, le fluide (metastable) piege n'a pas nuclee de vapeur lors de sa remontee rapide depuis le reservoir profond. De ce fait sa chimie est representative du fluide profond. Malgre le fait que la barytine est consideree comme mineral peu fiable pour les mesures microthermometriques, l'etude detaillee de la deformation de ses inclusions confirme la fiabilite des mesures effectuees. Les donnees acquises sur la solubilite de la barytine, faible mais cependant fortement prograde dans ces gammes de temperatures et de salinites elevees (400c, 5 m nacl), suggerent que le mecanisme principal de precipitation de ce mineral est le melange limite du fluide hydrothermal riche en ba avec la saumure interstitielle qui contient du sulfate. Les mesures de solubilite par perte de poids, ont ete effectuees sur des cristaux synthetises par voie hydrothermale, et sont coherentes avec celles de la litterature. Le mecanisme de precipitation des metaux de base et des metaux precieux est le simple refroidissement du fluide hydrothermal. Le rapport mba/mca -barytine et anhydrite a l'equilibre- correspond a une concentration en ba du fluide hydrothermal profond de l'ordre de 400ppm, en accord avec la valeur calculee d'apres le rapport mba/msr du niveau 980. Ces valeurs placent les concentrations maximales de zn et de au dans le fluide, a environ 800 et 0. 1ppm respectivement
APA, Harvard, Vancouver, ISO, and other styles
32

Ammar, Adel. "Restitution de la salinité de surface de l'océan à partir des mesures SMOS : une approche neuronale?" Toulouse 3, 2008. http://thesesups.ups-tlse.fr/475/.

Full text
Abstract:
L'inversion des mesures du satellite SMOS par des réseaux de neurones pose plusieurs difficultés, liées principalement à la variabilité des angles d'incidence observés et à l'importance du bruit de mesure. Cette thèse propose des solutions à ces obstacles dans un cas réaliste, et montre qu'une approche neuronale peut être applicable à tous les pixels de l'océan pour restituer la salinité avec une bonne précision. Concernant le choix de la base d'apprentissage, nous montrons qu'une base équi-répartie en paramètres géophysiques permet de réduire notablement les biais systématiques sur la salinité restituée qui sont dus à l'importance du bruit de mesure. Par ailleurs, une technique de prolongation de l'apprentissage permet de faire disparaître la plupart de ces défauts dans une large gamme de latitude. Les travaux accomplis pendant cette thèse ont permis de définir la méthodologie à appliquer, en phase de vol, et de fixer l'architecture des réseaux d'inversion
Using neural networks to retrieve the sea surface salinity from the observed Soil Moisture and Ocean Salinity (SMOS) brightness temperatures (TBs) is an empirical approach that offers the possibility of being independent from any theoretical emissivity model. We prove that this approach is applicable to all pixels over ocean, by designing a set of neural networks with different inputs. Besides, we demonstrate that a judicious distribution of the geophysical parameters in the learning database allows to markedly reduce the systematic regional biases of the retrieved SSS, which are due to the high noise on the TBs. An equalization of the distribution of the geophysical parameters, followed by a new technique for boosting the learning process, makes the regional biases almost disappear for latitudes between 40°S and 40°N, while the global standard deviation remains between 0. 6 psu (at the center of the swath) and 1 psu (at the edges)
APA, Harvard, Vancouver, ISO, and other styles
33

Ben, Ticha Mohamed Bassam. "Fusion de données satellitaires pour la cartographie du potentiel éolien offshore." Phd thesis, École Nationale Supérieure des Mines de Paris, 2007. http://tel.archives-ouvertes.fr/tel-00198912.

Full text
Abstract:
L'énergie éolienne est une des composantes d'une politique énergétique permettant de réaliser un développement durable. Ces dernières années, des parcs éoliens offshore ont été installés. Ces parcs bénéficient d'un vent plus fort et plus régulier en mer que sur terre. Pour un choix judicieux des lieux d'implantation des parcs éoliens, il est nécessaire de disposer d'une cartographie du potentiel éolien. Ces cartes doivent être à haute résolution spatiale pour détecter les variations du potentiel à l'échelle d'un parc éolien. La cartographie du potentiel éolien se fait au travers de la description de la variation spatiale des paramètres statistiques caractérisant la climatologie du vent. Pour une estimation précise de ces paramètres statistiques, il est nécessaire d'avoir des mesures de vitesse et de direction du vent à haute résolution temporelle. Cependant, aucune source de données, actuelle, n'allie la haute résolution spatiale et la haute résolution temporelle. On propose une méthode de fusion de données permettant de tirer profit de la haute résolution spatiale de certains instruments de télédétection (les radars à ouverture synthétiques) et de la haute résolution temporelle d'autres instruments de télédétection (les radars diffusomètres). La méthode de fusion est appliquée à un cas d'étude et les résultats sont évalués. Les résultats montrent la pertinence de la fusion de données pour la cartographie du potentiel éolien offshore.
APA, Harvard, Vancouver, ISO, and other styles
34

Huret, Martin. "Apports des données "couleur de l'eau" à la modélisation couplée physique -biogéochimie en milieu dynamique côtier : application au Rio de la Plata et au Golfe de Gascogne." Toulouse 3, 2005. http://www.theses.fr/2005TOU30023.

Full text
Abstract:
Continental margins play a crucial role in biogeochemical fluxes between the continents and the open ocean. They are also highly sensitive to human perturbations. Primary production is highly dependent on the complex dynamics of these coastal zones, and on the river supply in nutrients, as well as in Suspended Particulate Matter (SPM) which limit light availability. The quantification of the production is a prerequisite in many applications, from the understanding of the role of the coastal ocean in climate change, to eutrophication and fisheries resources issues within the frame of the integrated management of the coastal zone. Coupled physical-biogeochemical models are useful in studying and monitoring primary production. Because of the numerous complex processes and their non-linear interactions, and of some poorly known parameter values, some errors remain in the simulation of the phytoplankton production in coastal areas. Together with these models, satellite `ocean color' data is a major monitoring tool for marine ecosystems. Applying empirical algorithms to SeaWiFS data in coastal areas allows the retrieval of the concentration of chlorophyll a as well as of SPM. This PhD. Work shows the benefits of using `ocean color' data to constrain primary production models. Two study areas are investigated : the Rio de la Plata estuary and its continental margin in the Southwest Atlantic Ocean, and the Bay of Biscay in the Northeast Atlantic. First, the analysis of chlorophyll a concentration data bases for both areas, and of SPM concentration for the Bay of Biscay, reveals major phytoplankton features and processes that should be taken into account in the model formulation. Then a simple five compartments model for the Rio de la Plata, and a more complex one for the Bay of Biscay, have been coupled to the hydrodynamic model MARS-3D of IFREMER. After a first validation step, in which major observed features are reproduced, the models constraint by ocean color data is investigated. For the Bay of Biscay, surface forcing with satellite SPM concentrations improves the accuracy of light availability and then the simulation of late winter phytoplankton blooms. For both areas, we conducted optimisation experiments for some of the biological parameters. . .
APA, Harvard, Vancouver, ISO, and other styles
35

Métadier, Marjolaine. "Traitement et analyse de séries chronologiques continues de turbidité pour la formulation et le test de modèles des rejets urbains par temps de pluie." Phd thesis, INSA de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00668706.

Full text
Abstract:
Des approches parcimonieuses sont aujourd'hui développées pour la modélisation de la qualité des rejets urbains par temps de pluie, e adéquation avec la quantité de données disponibles. De plus, l'analyse des incertitudes apparaît comme un outil incontournable pour le test des modèles. Parallèlement, le développement des techniques de mesure en continu en réseau, spectrométrie et turbidité, permet l'obtention de données continues de flux de matières en suspension et de demande chimique en oxygène en grand nombre, apportant une information riche. Ce travail constitue une des premières études en hydrologie urbaine basée sur l'exploitation d'une grande base de données acquises par la mesure de la turbidité. Des mesures sur la période 2004-2008 ont été exploitées sur deux sites. Après traitement et validation, 263 et 239 événements pluvieux ont été retenus. L'analyse des données a permis la formulation d'hypothèses sur la génération des flux pour la proposition de modèles adaptés. Le test de l'approche multi-régression a confirmé la nécessité de construire des modèles locaux, basés sur une analyse approfondie des données. Les meilleurs modèles obtenus sont ceux pour la masse événementielle qui parviennent à reproduire en tendance la variabilité des observations. La méthode bayésienne a été utilisée pour le test d'un modèle d'Accumulation-Erosion-Transfert simple à l'échelle du bassin versant. Les premiers résultats mettent e défaut la structure du modèle testé. Cependant ces premiers tests ont démontré l'efficacité de la procédure d'analyse bayésienne, dont l'application du principe d'apprentissage permet d'améliorer de manière significative les structures des modèles.
APA, Harvard, Vancouver, ISO, and other styles
36

Castruccio, Frédéric. "Apports des données gravimétriques GRACE pour l'assimilation de données altimétriques et in-situ dans un modèle de l'Océan Pacifique Tropical." Phd thesis, Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00138506.

Full text
Abstract:
L'objectif de ce travail est d'estimer les apports d'une topographie dynamique moyenne (MDT) déduite des données gravimétriques GRACE, pour la reconstruction de la circulation océanique du Pacifique Tropical par assimilation de données.
Les récentes avancées de notre connaissance du géoïde nous ont conduit à étudier l'impact de l'utilisation d'un signal altimétrique absolu. Un modèle (OPA) de l'Océan Pacifique Tropical, où des observations in-situ et quasi-synoptiques sont disponibles (réseau TAO), et un filtre de Kalman en rang réduit (SEEK) ont été mis au point et utilisés dans différentes configurations. La première suppose une situation pré-GRACE et utilise une MDT artificielle. La deuxième utilise une MDT observée déduite du géoïde GRACE. Conjointement à l'altimétrie, les profils de température TAO sont assimilés.
Ce travail montre l'importance d'une bonne référence pour les résidus altimétriques. Le résultat le plus important concerne la capacité du système d'assimilation utilisant GRACE à mieux composer avec des données mixtes: satellites et in-situ. Ici, l'assimilation conjointe d'altimétrie et de données TAO est plus performante grâce à la meilleure compatibilité des données.
En outre, une analyse physique, qui considère l'apport de l'assimilation à l'amélioration de la représentation de la dynamique du Pacifique Tropical, a été conduite. L'originalité de ce travail est de montrer comment l'assimilation contribue à améliorer notre compréhension des mécanismes physiques en action dans ce bassin.
De manière intéressante et rétrospective, cette analyse révèle aussi une zone (8°N) où les données GRACE semblent avoir des faiblesses qu'il serait judicieux de corriger.
APA, Harvard, Vancouver, ISO, and other styles
37

Meddis, Alessandra. "Inference and validation of prognostic marker for correlated survival data with application to cancer." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASR005.

Full text
Abstract:
Les données de survie en grappes sont souvent recueillies dans le cadre de la recherche médicale. Elles sont caractérisées par des corrélations entre des observations appartenant à un même groupe. Ici, nous discutons des extensions a des données en grappes dans différents contextes : évaluation de la performance d'un biomarqueur candidat, et l’estimation de l'effet du traitement dans une méta-analyse sur données individuels (IPD) avec risques concurrents. La première a été motivée par l'étude IMENEO, une méta-analyse où l'intérêt portait sur la validité pronostique des cellules tumorales circulantes (CTCs). Notre objectif était de déterminer dans quelle mesure les CTCs discriminent les patients qui sont morts de ceux qui ne l'ont pas fait dans les t-années, en comparant des individus ayant le même stade de tumeur. Bien que la courbe ROC dépendante du temps ait été largement utilisée pour la discrimination des biomarqueurs, il n'existe pas de méthodologie permettant de traiter des données en grappes censurées. Nous proposons un estimateur pour les courbes ROC dépendantes du temps et pour l'AUC lorsque les temps d'évènements sont correlés. Nous avons employé un modèle de fragilité partagée pour modéliser l'effet des covariables et du biomarqueur sur la réponse afin de tenir compte de l'effet de la grappe. Une étude de simulation a été réalisée et a montré un biais négligeable pour l'estimateur proposé et pour un estimateur non paramétrique fondé sur la pondération par la probabilité inverse d’être censuré (IPCW), tandis qu'un estimateur semi-paramétrique, ignorant la structure en grappe est nettement biaisé.Nous avons également considéré une méta-analyse IPD pour quantifier le bénéfice de l'ajout de la chimiothérapie à la radiothérapie sur chaque risque concurrent pour les patients avec un carcinome nasopharyngien . Les recommandations pour l'analyse des risques concurrents dans le cadre d'essais cliniques randomisés sont bien établies. Étonnamment, aucune recommendation n'a encore été proposée pour l’anlayse d'une méta-analyse IPD avec les risque concurrents. Pour combler cette lacune, ce travail a détaillé la manière de traiter l'hétérogénéité entre les essais par un modèle de régression stratifié pour les risques concurrents et il souligne que les mesures standardes d'hétérogénéité pour évaluer l'incohérence peuvent facilement être utilisées. Les problèmes typiques qui se posent avec les méta-analyses et les avantages dus à la disponibilité des caractéristiques au niveau du patient ont été soulignées. Nous avons proposé une approche landmark pour la fonction d'incidence cumulée afin d'étudier l'impact du temps de suivi sur l'effet du traitement.L'hypothèse d'une taille de grappe non informative était faite dans les deux analyses. On dit que la taille de grappe est informative lorsque la variable réponse dépend de la taille de grappe conditionnellement à un ensemble de variables explicatives. Intuitivement, une méta-analyse répondrait à cette hypothèse. Cependant, la taille de grappe non informative est généralement supposée, même si elle peut être fausse dans certaines situations, ce qui conduit à des résultats incorrects. La taille des grappes informatives (ICS) est un problème difficile et sa présence a un impact sur le choix de la méthodologie. Nous avons discuté plus en détail de l'interprétation des résultats et des quantités qui peuvent être estimées et dans quelles conditions. Nous avons proposé un test pour l'ICS avec des données en grappes censurées. À notre connaissance, il s'agit du premier test sur le contexte de l'analyse de survie. Une étude de simulation a été réalisée pour évaluer la puissance du test et quelques exemples sont fournis à titre d'illustration.L'implémentation de chacun de ces développements est disponible sur https://github.com/AMeddis
Clustered data often arises in medical research. These are characterized by correlations between observations belonging to the same cluster. Here, we discuss some extension to clustered data in different contexts: evaluating the performance of a candidate biomarker, and assessing the treatment effect in an individual patient data (IPD) meta-analysis with competing risks. The former was motivated by the IMENEO study, an IPD meta-analysis where the prognostic validity of the Circulating Tumor Cells (CTCs) was of interest. Our objective was to determine how well CTCs discriminates patients that died from the one that did not within the t-years, comparing individuals with same tumor stage. Although the covariate-specific time dependent ROC curve has been widely used for biomarker's discrimination, there is no methodology that can handle clusteres censored data. We proposed an estimator for the covariate-specific time dependent ROC curves and area under the ROC curve when clustered failure times are detected. We considered a shared frailty model for modeling the effect of the covariates and the biomarker on the outcome in order to account for the cluster effect. A simulation study was conducted and it showed negligible bias for the proposed estimator and a nonparametric one based on inverse probability censoring weighting, while a semiparametric estimator, ignoring the clustering, is markedly biased.We further considered an IPD meta-analysis with competing risks to assess the benefit of the addition of chemotherapy to radiotherapy on each competing endpoint for patients with nasopharyngeal carcinoma. Recommendations for the analysis of competing risks in the context of randomized clinical trials are well established. Surprisingly, no formal guidelines have been yet proposed to conduct an IPD meta-analysis with competing risk endpoints. To fill this gap, this work detailed: how to handle the heterogeneity between trials via a stratified regression model for competing risks and it highlights that the usual metrics of inconsistency to assess heterogeneity can readily be employed. The typical issues that arise with meta-analyses and the advantages due to the availability of patient-level characteristics were underlined. We proposed a landmark approach for the cumulative incidence function to investigate the impact of follow up on the treatment effect.The assumption of non informative cluster size was made in both the analyses. The cluster size is said to be informative when the outcome depends on the size of the cluster conditional on a set of covariates. Intuitively, a meta-analysis would meet this assumption. However, non informative cluster size is commonly assumed even though it may be not true in some situations and it leads to incorrect results. Informative cluster size (ICS) is a challenging problem and its presence has an impact on the choice of the correct methodology. We discussed more in details interpretation of results and which quantities can be estimated under which conditions. We proposed a test for ICS with censored clustered data. To our knowledge, this is the first test on the context of survival analysis. A simulation study was conducted to assess the power of the test and some illustrative examples were provided.The implementation of each of these developments are available at https://github.com/AMeddis
APA, Harvard, Vancouver, ISO, and other styles
38

Ablin, Pierre. "Exploration of multivariate EEG /MEG signals using non-stationary models." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLT051.

Full text
Abstract:
L'Analyse en Composantes Indépendantes (ACI) modèle un ensemble de signaux comme une combinaison linéaire de sources indépendantes. Cette méthode joue un rôle clé dans le traitement des signaux de magnétoencéphalographie (MEG) et électroencéphalographie (EEG). L'ACI de tels signaux permet d'isoler des sources de cerveau intéressantes, de les localiser, et de les séparer d'artefacts. L'ACI fait partie de la boite à outils de nombreux neuroscientifiques, et est utilisée dans de nombreux articles de recherche en neurosciences. Cependant, les algorithmes d'ACI les plus utilisés ont été développés dans les années 90. Ils sont souvent lents lorsqu'ils sont appliqués sur des données réelles, et sont limités au modèle d'ACI classique.L'objectif de cette thèse est de développer des algorithmes d'ACI utiles en pratique aux neuroscientifiques. Nous suivons deux axes. Le premier est celui de la vitesse : nous considérons le problème d'optimisation résolu par deux des algorithmes les plus utilisés par les praticiens: Infomax et FastICA. Nous développons une nouvelle technique se basant sur un préconditionnement par des approximations de la Hessienne de l'algorithm L-BFGS. L'algorithme qui en résulte, Picard, est conçu pour être appliqué sur données réelles, où l'hypothèse d’indépendance n'est jamais entièrement vraie. Sur des données de M/EEG, il converge plus vite que les implémentations `historiques'.Les méthodes incrémentales, qui traitent quelques échantillons à la fois au lieu du jeu de données complet, constituent une autre possibilité d’accélération de l'ACI. Ces méthodes connaissent une popularité grandissante grâce à leur faculté à bien passer à l'échelle sur de grands jeux de données. Nous proposons un algorithme incrémental pour l'ACI, qui possède une importante propriété de descente garantie. En conséquence, cet algorithme est simple d'utilisation, et n'a pas de paramètre critique et difficile à régler comme un taux d'apprentissage.En suivant un second axe, nous proposons de prendre en compte du bruit dans le modèle d'ACI. Le modèle resultant est notoirement difficile et long à estimer sous l'hypothèse standard de non-Gaussianité de l'ACI. Nous nous reposons donc sur une hypothèse de diversité spectrale, qui mène à un algorithme facile d'utilisation et utilisable en pratique, SMICA. La modélisation du bruit permet de nouvelles possibilités inenvisageables avec un modèle d'ACI classique, comme une estimation fine des source et l'utilisation de l'ACI comme une technique de réduction de dimension statistiquement bien posée. De nombreuses expériences sur données M/EEG démontrent l'utilité de cette nouvelle approche.Tous les algorithmes développés dans cette thèse sont disponibles en accès libre sur internet. L’algorithme Picard est inclus dans les librairies de traitement de données M/EEG les plus populaires en Python (MNE) et en Matlab (EEGlab)
Independent Component Analysis (ICA) models a set of signals as linear combinations of independent sources. This analysis method plays a key role in electroencephalography (EEG) and magnetoencephalography (MEG) signal processing. Applied on such signals, it allows to isolate interesting brain sources, locate them, and separate them from artifacts. ICA belongs to the toolbox of many neuroscientists, and is a part of the processing pipeline of many research articles. Yet, the most widely used algorithms date back to the 90's. They are often quite slow, and stick to the standard ICA model, without more advanced features.The goal of this thesis is to develop practical ICA algorithms to help neuroscientists. We follow two axes. The first one is that of speed. We consider the optimization problems solved by two of the most widely used ICA algorithms by practitioners: Infomax and FastICA. We develop a novel technique based on preconditioning the L-BFGS algorithm with Hessian approximation. The resulting algorithm, Picard, is tailored for real data applications, where the independence assumption is never entirely true. On M/EEG data, it converges faster than the `historical' implementations.Another possibility to accelerate ICA is to use incremental methods, which process a few samples at a time instead of the whole dataset. Such methods have gained huge interest in the last years due to their ability to scale well to very large datasets. We propose an incremental algorithm for ICA, with important descent guarantees. As a consequence, the proposed algorithm is simple to use and does not have a critical and hard to tune parameter like a learning rate.In a second axis, we propose to incorporate noise in the ICA model. Such a model is notoriously hard to fit under the standard non-Gaussian hypothesis of ICA, and would render estimation extremely long. Instead, we rely on a spectral diversity assumption, which leads to a practical algorithm, SMICA. The noise model opens the door to new possibilities, like finer estimation of the sources, and use of ICA as a statistically sound dimension reduction technique. Thorough experiments on M/EEG datasets demonstrate the usefulness of this approach.All algorithms developed in this thesis are open-sourced and available online. The Picard algorithm is included in the largest M/EEG processing Python library, MNE and Matlab library, EEGlab
APA, Harvard, Vancouver, ISO, and other styles
39

Chriki, Sghaïer. "Méta-analyses des caractéristiques musculaires afin de prédire la tendreté de la viande bovine." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2013. http://tel.archives-ouvertes.fr/tel-00881204.

Full text
Abstract:
Un des enjeux de la filière bovine est la maîtrise et la prédiction de la tendreté de la viande, critère important pour les consommateurs. Inscrite dans le programme européen ProSafeBeef, ma thèse avait pour objectif de mieux prédire la tendreté par méta-analyse à partir des caractéristiques biochimiques du muscle. Pour cela, mon travail de thèse s'est appuyé sur la base de données BIF-Beef regroupant des données individuelles issues de plusieurs programmes de recherche, allant de l'animal à la viande en passant par la carcasse et le muscle. Une première méta-analyse a montré que le muscle Semitendinosus (ST) est de type plus rapide glycolytique que le Longissimus thoracis (LT) chez les mâles entiers et les femelles mais pas chez les mâles castrés. Après avoir identifié par une approche par classe de tendreté les caractéristiques musculaires associées à la tendreté, nous avons montré que ces caractéristiques sont différentes entre muscles et types d'animaux. Dans le muscle LT des taurillons, la surface moyenne des fibres musculaires est la variable qui joue le principal rôle sur la tendreté sensorielle où elle explique 2% de la variabilité des notes de tendreté. Principalement dans le muscle ST, les teneurs en collagène total et insoluble et l'activité enzymatique du métabolisme glycolytique expliquent au plus 6% chacun de la variabilité de la force de cisaillement. Malgré ces faibles parts de variabilité expliquée de la tendreté, ces conclusions validées sur un grand volume de données sont importantes pour préparer de nouveaux projets visant à compléter cette démarche en prenant en compte d'autres caractéristiques telles que des biomarqueurs génomiques.
APA, Harvard, Vancouver, ISO, and other styles
40

Thual, Sulian. "Modèles réduits pour l'étude des mécanismes et de la modulation de l'oscillation australe El Niño." Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1821/.

Full text
Abstract:
L'Oscillation Australe El Niño (ENSO pour El Niño Southern Oscillation) est la fluctuation climatique la plus intense sur Terre après le cycle saisonnier. L'observation, la compréhension et la prévision de cette fluctuation aux retombées mondiales sont des enjeux scientifiques majeurs. Cette thèse documente divers aspects d'ENSO tels que ses mécanismes, sa modulation et sa prévision. Ces divers aspects sont abordés en développant une hiérarchie de modèles du Pacifique équatorial, de complexité croissante, qui s'étend de modèles conceptuels à une méthode d'assimilation de données dans un modèle de complexité intermédiaire. Nous étudions dans un premier temps les mécanismes de formation d'ENSO. Nous développons une dérivation alternative du modèle conceptuel de recharge/décharge où ENSO résulte d'un ajustement de la thermocline équatoriale à échelle de bassin. Nous implémentons par ailleurs un diagnostic original dans un modèle d'instabilités couplées équatoriales, ce qui met en avant un nouveau mécanisme de formation d'ENSO où les réflexions aux frontières océaniques jouent un rôle secondaire. La stratification moyenne de l'océan contribue à la modulation décenalle des caractéristiques d'ENSO. Cette relation est abordée dans un nouveau modèle réduit qui prend en compte les premiers modes baroclines d'un océan continûment stratifié. L'espace des solutions du modèle est exploré, indiquant un contrôle de la stabilité d'ENSO par les caractéristiques de la thermocline équatoriale. La sensibilité à la stratification au cours des dernières décennies est mise en perspective avec la sensibilité aux rétroactions thermodynamiques et atmosphériques. Nous soulignons en particulier certaines limitations des méthodes usuelles d'estimation de la rétroaction de thermocline dans le Pacifique central. Finalement, nous implémentons une méthode de Filtre de Kalman d'Ensemble dans un modèle intermédiaire du Pacifique équatorial déjà existant, afin d'assimiler des observations de niveau de la mer et d'initialiser des prévisions rétrospectives d'ENSO. Nous montrons que la contrainte majeure du modèle porte sur les modes de bassin qui sont associés au processus de recharge/décharge du Pacifique équatorial. Notre travail fournit un formalisme pour diagnostiquer la modulation des caractéristiques d'ENSO dans les observations, les prévisions et projections climatiques. Les résultats soutiennent la nécessité d'étendre la compréhension des mécanismes d'ENSO, afin de rendre compte de la diversité des régimes observés et d'améliorer les prévisions
The El Niño Southern Oscillation (ENSO) is the most intense climatic fluctuation on Earth after the seasonal cycle. The observation, understanding and forecast of this fluctuation with worldwide impacts are major scientific issues. This thesis (entitled "Simple Models for Understanding the Mechanisms and Modulation of ENSO") documents various aspects of ENSO such as its mechanisms, its modulation and its forecast. Those various aspects are tackled by developing a hierarchy of models of the equatorial Pacific, of increasing complexity, ranging from conceptual models to a data assimilation method in an intermediate complexity model. We study at first mechanisms of ENSO formation. We develop an alternative derivation of the recharge/discharge conceptual model where ENSO arises from a basin-wide adjustment of the equatorial thermocline. We also implement an original diagnostic in a model of equatorial coupled instabilities, which evidences a new mechanism of ENSO formation where reflections at the ocean boundaries are secondary. The background ocean stratification contributes to the decadal modulation of ENSO characteristics. This relation is adressed in a new reduced model that takes into account the gravest baroclinic modes of a continusouly stratified ocean. The space of model solutions is explored, indicating a control on ENSO stability by characteristics of the equatorial thermocline. The sensitivity to stratification over the recent decades is put in perspective with the sensitivity to thermodynamic and atmospheric feedbacks. We stress in particular certain limitations of usual methods of estimation of the thermocline feedback in the central Pacific. Finally, we implement an Ensemble Kalman Filter method in an already existing intermediate model of the equatorial Pacific, in order to assimilate sea level observations and to initialize retrospective forecasts. We show that the major model constraint is on the basin modes that are associated to the recharge/discharge process of the equatorial Pacific. Our work provides a formalism to diagnose the modulation of ENSO characteristics in observations, climate projections and forecasts. Results support the need to extent the understanding of ENSO mechanisms, in order to account for the diversity of observed regimes and to improve forecasts
APA, Harvard, Vancouver, ISO, and other styles
41

Ben, Khedher Anis. "Amélioration de la qualité des données produits échangées entre l'ingénierie et la production à travers l'intégration de systèmes d'information dédiés." Thesis, Lyon 2, 2012. http://www.theses.fr/2012LYO20012.

Full text
Abstract:
Le travail présenté dans ce mémoire de thèse apporte sa contribution à l'amélioration de la qualité des données échangées entre la production et les services d'ingénierie dédiés à la conception du produit et du système de production associé. Cette amélioration de la qualité des données passe par l'étude des interactions entre la gestion du cycle de vie du produit et la gestion de la production.Ces deux concepts étant supportés, tout ou partie, par des systèmes d'information industriels, l'étude de leurs interactions a ensuite conduit à l'intégration de ces systèmes d'information (PLM, ERP et MES). Dans un contexte de forte concurrence et de mondialisation, les entreprises sont obligées d'innover et de minimiser les coûts, notamment ceux de production. Face à ces enjeux, le volume des données de production et leur fréquence de modification ne cessent d'augmenter en raison de la réduction constante de la durée de vie et de mise sur le marché des produits, de la personnalisation accrue des produits et en n de la généralisation des démarches d'amélioration continue en production. La conséquence directe est alors la nécessité de formaliser et de gérer l'ensemble des données de production devant être fournies aux opérateurs de production et aux machines. Suite à une analyse du point de vue de la qualité des données pour chaque architecture existante démontrant ainsi leur incapacité à répondre à cette problématique, une architecture basée sur l'intégration des trois systèmes d'information directement impliqués dans la production (PLM, ERP et MES) a été proposée. Cette architecture nous a menés à deux sous-problématiques complémentaires qui sont respectivement la construction d'une architecture basée sur des Web Services permettant d'améliorer l'accessibilité, la sécurité et la complétude des données échangées, et la construction d'une architecture d'intégration, basée sur les ontologies, permettant d'offrir des mécanismes d'intégration basés sur la sémantique dans le but d'assurer la bonne interprétation des données échangées.Enfin, la maquette de l'outil logiciel supportant la solution proposée et permettant d'assurer l'intégration des données échangées entre ingénierie et production a été réalisée
The research work contributes to improve the quality of data exchanged between the production and the engineering units which dedicated to product design and production system design. This improvement is qualified by studying the interactions between the product life cycle management and the production management. These two concepts are supported, wholly or partly by industrial information systems, the study of the interactions then lead to the integration of information systems (PLM, ERP and MES).In a highly competitive environment and globalization, companies are forced to innovate and reduce costs, especially the production costs. Facing with these challenges, the volume and frequency change of production data are increasing due to the steady reduction of the lifetime and the products marketing, the increasing of product customization and the generalization of continuous improvement in production. Consequently, the need to formalize and manage all production data is required. These data should be provided to the production operators and machines.After analysis the data quality for each existing architecture demonstrating the inability to address this problem, an architecture, based on the integration of three information systems involved in the production (PLM, ERP and MES) has been proposed. This architecture leads to two complementary sub-problems. The first one is the development of an architecture based on Web services to improve the accessibility, safety and completeness of data exchanged. The second is the integration architecture of integration based on ontologies to offer the integration mechanisms based on the semantics in order to ensure the correct interpretation of the data exchanged. Therefore, the model of the software tool supports the proposed solution and ensures that integration of data exchanged between engineering and production was carried out
APA, Harvard, Vancouver, ISO, and other styles
42

Hajj-Hassan, Hicham. "Les bases de données environnementales : entre complexité et simplification : mutualisation et intégration d’outils partagés et adaptés à l’observatoire O-LiFE." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT135.

Full text
Abstract:
O-LiFE est un observatoire de l’environnement dédié à l’étude des ressources et de la biodiversité dans la zone critique à la vie, focalisé sur la méditerranée. C’est aussi une structure à l’interface entre la recherche fondamentale et les porteurs d’enjeux. Cette plateforme initiée en collaboration entre des équipes libanaises et françaises se focalise d’abord sur l’observation systémique du milieu naturel, autour des thématiques de l’eau, la biodiversité et la gestion de l’environnement. Le fondement de l’observatoire est la mise en oeuvre d’une approche transdisciplinaire du défi du changement global. Structurer, partager, pérenniser et valoriser les données environnementales constitue un objectif prioritaire pour permettre à une large communauté de converger vers une approche réellement systémique et transdisciplinaire des enjeux environnementaux en Méditerranée. La construction d’un système d’information permettant cette mise en relation complète des données est donc prioritaire. Cependant cette mise en oeuvre est rendu complexe par plusieurs défis à relever pour répondre aux utilisateurs finaux et producteurs de données qui ne partagent pas les mêmes besoins, et pour tenir compte de l’hétérogénéité naturelle des données.Dans cette thèse, nous détaillons par conséquent les réflexions et travaux menés pour la mise en place de l’architecture du SI de l’observatoire. Le travail a été initié par une enquête permettant de mieux connaître les sources de données existantes. Nous avons ensuite proposé d’utiliser les environnements de gestion de données d’observations basés sur des ontologies partagées et les recommandations des consortiums reconnus (OGC). Des extensions sont proposées pour permettre la prise en compte de points de vue distincts sur les données via des multi-mapping. Cette extension permet un découplage entre la vision initiale du producteur de données et les multiples utilisations possibles des données à l’aide de croisement avec d’autres sources de données et/ou d’autres points de vue.Nous avons enfin appliqué la méthodologie sur les données O-LiFE et avons pu extraire des croisements de données inter-bases (entre deux sources de données distinctes) et intra-bases (en juxtaposant des points de vue distincts sur une même source de données). Ce travail est une démonstration du rôle fondamental des outils du SI et des observatoires dans le rapprochement indispensable des communautés scientifiques autant que des porteurs d’enjeux pour la résolution des grands défis sociétaux environnementaux, notamment en Méditerranéen
O-LiFE is an environmental observatory dedicated to the study of resources and biodiversity in the critical area of life, focused on the Mediterranean. It is also a structure at the interface between basic research and the holders of issues. This platform initiated in collaboration between Lebanese and French teams focuses first on systemic observation of the natural environment around the themes of water, biodiversity and environmental management. The foundation of the observatory is the implementation of a transdisciplinary approach to the challenge of global change.Organize, share, sustain and enhance environmental data is a priority objective to enable the wider community to converge towards a truly systemic and transdisciplinary approach to environmental issues in the Mediterranean. The construction of an information system allowing complete connection of data is therefore a priority. However, this implementation is complicated by a number of challenges to meet the end users and data producers expectations who do not share the same needs, and to take into account thenatural heterogeneity of data.In this PhD, we detail brainstorming and work needed for the development of the architecture of the information system of the observatory. The work was initiated by a survey to better understand theexisting sources of data. We then proposed to use observational data management environments based on shared ontologies and the recommendations of recognized consortia (OGC). Extensions are proposed to enable the inclusion of different perspectives on data through multi-mapping. This extension allows a decouplingbetween the original vision of the data producer and the many possible uses of the data with crossbreeding with other data sources and / or other views.We then applied the methodology on the O-LiFE data and were able to extract inter-data analysis (between two distinct data sources) and intra-bases analysis (by juxtaposing different points of view on the same data source). This work is a demonstration of the fundamental role of IS tools and observatories in the essential gathering of the scientific communities as much as stakeholders to resolve major environmental challenges facing society, particularly in Mediterranean
APA, Harvard, Vancouver, ISO, and other styles
43

Semaan, Bernard. "Raffinement de la localisation d’images provenant de sites participatifs pour la mise à jour de SIG urbain." Thesis, Ecole centrale de Nantes, 2018. http://www.theses.fr/2018ECDN0055/document.

Full text
Abstract:
Les villes sont des zones actives : tous les jours de nouvelles constructions ont lieu, des immeubles sont démolis ou des locaux commerciaux changent d'enseigne. Les gestionnaires des Systèmes d'information géographique de la ville ont pour but de mettre le plus à jour possible leurs modèles numériques de la ville. Ces modèles peuvent se composer de cartes en 2D mais aussi de modèles en 3D qui peuvent provenir d'une reconstruction à partir d'images. Ces dernières peuvent avoir été prises depuis le ciel comme depuis le sol. La cartographie participative, comme le permet la plateforme "OpenStreetMap.org", a émergé pour mettre à disposition de tous l'information géographique et maintenir les cartes 2D à jour par les utilisateurs de la plateforme. Dans le but d'améliorer le processus de mise à jour et suivant le même esprit que les approches participatives, nous proposons d'utiliser les plateformes de partage de photos comme "Flickr", "Twitter", etc. Les images téléchargées sur ces plates-formes possèdent une localisation imprécise de l'image sans information sur l'orientation de la photographie. Nous proposons alors un système qui aide à trouver une meilleure localisation et retrouve une information d'orientation de la photographie. Le système utilise les informations visuelles de l'image ainsi que les informations sémantiques. Pour cela nous présentons une chaîne de traitement automatisée composée de trois couches : la couche d'extraction et de pré-traitement des données, la couche d'extraction et de traitement des primitives, la couche de prise de décision. Nous présentons ensuite les résultats de l'ensemble de ce système que nous appelons "Data Gathering system for image Pose Estimation"(DGPE). Nous présentons aussi dans cette thèse une méthode que nous avons appelée "Segments Based Building Detection"(SBBD) pour la détection d'immeubles simples. Nous avons aussi testé cette méthode sous diverses conditions de prise de vue (occultations, variations climatiques, etc.). Nous comparons cette méthode de détection à une autre méthode de l'état de l'art en utilisant plusieurs bases d'images
Cities are active spots in the earth globe. They are in constant change. New building constructions, demolitions and business changes may apply on daily basis. City managers aim to keep as much as possible an updated digital model of the city. The model may consist of 2D maps but may also be a 3D reconstruction or a street imagery sequence. In order to share the geographical information and keep a 2D map updated, collaborative cartography was born. "OpenStreetMap.org" platform is one of the most known platforms in this field. In order to create an active collaborative database of street imagery we suggest using 2D images available on image sharing platforms like "Flickr", "Twitter", etc. Images downloaded from such platforms feature a rough localization and no orientation information. We propose a system that helps finding a better localization of the images and providing an information about the camera orientation they were shot with. The system uses both visual and semantic information existing in a single image. To do that, we present a fully automatic processing chain composed of three main layers: Data retrieval and preprocessing layer, Features extraction layer, Decision Making layer. We then present the whole system results combining both semantic and visual information processing results. We call our system Data Gathering system for image Pose Estimation (DGPE). We also present a new automatic method for simple architecture building detection we have developed and used in our system. This method is based on segments detected in the image and was called Segments Based Building Detection (SBBD). We test our method against some weather changes and occlusion problems. We finally compare our building detection results with another state-of-the-art method using several images databases
APA, Harvard, Vancouver, ISO, and other styles
44

Al-Kutby, Sahar. "Applications of spice extracts and other hurdles to improve microbial safety and shelf-life of cooked, high fat meat products (doner kebab)." Thesis, University of Plymouth, 2012. http://hdl.handle.net/10026.1/1184.

Full text
Abstract:
There is a growing demand for safe and convenient meat products. The effect of natural spice extracts incorporated with other hurdles for controlling pathogenic bacteria and extending the shelf life of RTE doner kebab were investigated. A comprehensive literature review was undertaken to establish the status of microbial risk, use of additives, knowledge on oxidative deterioration and HACCP associated with meat products. The in vitro antioxidant and antibacterial activities of spice extracts were screened and compared. Cinnamon, clove, and sumac alcoholic extracts demonstrated strong antimicrobial effect, however, rosemary proved effective as antioxidant in a lamb fat model. An accelerated shelf life study on a model system indicated that storage temperature was the most critical factor affecting lipid oxidation, which was effectively delayed by vacuum packaging and rosemary extracts. The effects of spice extracts, packaging and storage time on physiochemical, microbiological, and sensory attributes of doner kebab were evaluated. Application of rosemary and cinnamon extracts significantly reduced TVC, inhibited LAB, and retarded lipid oxidation rate. Sensory evaluation by a consumer panel indicated that only taste and spiciness perception was significantly different between treatments. A challenge test against Listeria monocytogenes showed significant differences between control and spice treatments at day 28. Strong inhibitory effects were associated to high levels of cinnamon particularly when applied after cooking. The effect of heat treatment and sumac (Rhus coriaria) on Bacillus cereus and Clostridium perfringens inactivation was evaluated on a doner kebab prototype. Addition of sumac significantly reduced D-values and z-values for both organisms in comparison to the control. The investigation of the effect of spice extracts, and environmental conditions on changes in growth kinetic parameters for L. monocytogenes and Salmonella Typhimurium showed that spice extracts are highly significant. For both microorganisms, Mumax was reduced as salt and spice concentrations increased, and pH levels decreased. This study shows that spice extracts incorporated with other hurdles can help to maintain safe and good quality RTE doner kebab.
APA, Harvard, Vancouver, ISO, and other styles
45

RICHARD, JOEL. "Application de methodes de traitements numeriques de signaux a la detection, compression et reconnaissance d'evenements d'origines sismiques dans une station autonome de type sismographe fond de mer." Rennes 1, 1988. http://www.theses.fr/1988REN10121.

Full text
Abstract:
Les conditions de fonctionnement des sismographes fond de mer imposent le conditionnement des signaux pour limiter les debits d'information lors de l'enregistrement ou de la transmission. Trois methodes deduites de la transformation de fourier, de la transformation de walsh et de la modelisation autoregression sont examines et testes
APA, Harvard, Vancouver, ISO, and other styles
46

Vermeulen, Mathieu. "Une approche meta-design des learning games pour développer leur usage." Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS093.

Full text
Abstract:
Cette thèse en informatique se situe dans le domaine des Learning Games (LG), les jeux sérieux destinés à l’apprentissage. Elle s’intéresse à leur conception, aux outils et modèles pour faciliter celle-ci, et à leur usage. Pour aborder cette problématique, nous nous appuyons sur le meta-design, une approche impliquant fortement les utilisateurs finaux dans la phase de conception mais aussi dans la phase d’usage. Pour la mettre en place avec les enseignants, que nous considérons comme les utilisateurs finaux des LG, nous proposons différentes itérations d’un modèle de LG simple et représentable pour faciliter la conception collaborative de ces EIAH mais aussi leur réingénierie. Après une première itération, la seconde itération propose un modèle baptisé DISC et la méthode de conception associée. Ils ont été testés dans le cadre de la co-conception d’un LG utilisé par des enseignants du supérieur dans le contexte d’un MOOC et utilisé comme une activité d’un cours en présentiel. Pour impliquer les enseignants dans la phase d’usage, nous proposons d’articuler ce modèle avec un outil de visualisation des traces des étudiants pour détecter des séquences d’usage problématiques et ainsi faciliter le processus de réingénierie, les visualisations permettant l’analyse des données recueillies. Pour mener ce travail de recherche, nous avons choisi de travailler avec la méthode THEDRE qui propose un cycle de recherche itératif soutenu par la remontée d’indicateurs évaluant le processus de recherche. Cette amélioration continue, appuyée sur les expérimentations menées, a permis de valider nos propositions quant au meta-design pour les learning games
This thesis in computer science is in the field of Technology Enhanced Learning (TEL) and more specifically in the field of Learning Games (LG), serious games dedicated to learning. It deals with their design, tools and models to facilitate it, and their use. To tackle this problem, we use the meta-design, an approach aiming to strongly involve the end users in the design stage but also in the use stage. To implement this approach with teachers, whom we consider as end users of LG, we propose different iterations of a simple and representable LG model to facilitate the collaborative design of these TELs, but also their reengineering. After a first iteration, the second iteration propose a model named DISC and the associated design method. They were tested in the co-design of a learning game used by teachers of higher education in the context of a MOOC and as an additional activity of a course. To involve teachers in the use stage, we propose to articulate this model with a learners’ traces visualizations tool to detect problematic pattern and, thus, facilitate the reengineering process of LG, the visualizations allowing traces analysis collected during the use stage. To carry out this research work, we chose to work with the THEDRE method which proposes an iterative research cycle supported by the feedback of indicators evaluating the process throughout the method. This continuous improvement, supported by the experiments, allow us to validate our propositions about the meta-design for the learning games
APA, Harvard, Vancouver, ISO, and other styles
47

Blanchard, Pierre. "Méta-analyses sur données individuelles d’essais randomisés dans les cancers des voies aéro-digestives supérieures. Développements méthodologiques et cliniques." Thesis, Paris 11, 2013. http://www.theses.fr/2013PA11T065/document.

Full text
Abstract:
Les cancers des voies aérodigestives supérieures (VADS) représentent la 5e cause de cancer en France. Ils sont fréquemment découverts à un stade avancé, et leur mauvais pronostic a conduit à l’élaboration de traitements intensifiés. De nombreux essais randomisés ont évalué l’apport de la chimiothérapie et de modifications du fractionnement de la radiothérapie. Leurs résultats ont été synthétisés dans deux méta-analyses sur données individuelles coordonnées par l’Institut Gustave Roussy. Cependant ces méta-analyses génèrent des questions cliniques et méthodologiques, qui constituent le socle de cette thèse. Ainsi nous avons exploré par différents moyens l’étude de l’interaction entre des covariables de niveau individuel, le site tumoral, et l’effet du traitement. Nous avons adapté la méthodologie des méta-analyses en réseau pour les données de survie afin réaliser une analyse globale de l’ensemble de ces essais randomisés et classer les traitements selon leur efficacité sur la survie. Certains de ces traitements n’avaient pas fait l’objet de comparaison directe, et nos résultats se sont vérifiés dans des essais publiés ultérieurement. Nous avons passé en revue les avantages et les limites de la méta-analyse en réseau. Nous avons enfin engagé la mise à jour de ce corpus de méta-analyses pour produire des résultats en accord avec les pratiques actuelles, avec un suivi long, et en explorant des problématiques variées, telles que l’efficacité, la toxicité et l’adhérence au protocole thérapeutique. Les résultats finaux de la méta-analyse sur la chimiothérapie d’induction avec taxanes sont présentés dans cette thèse
Head and neck cancers represent the fifth cause of death from cancer in France. They are often diagnosed at an advanced stage. The poor prognosis of these diseases has led to the introduction of intensified treatments. Numerous randomized trials have evaluated the benefits of the addition of chemotherapy to locoregional treatment and of the modification of radiotherapy fractionation. The results of these trials have been synthesized in two individual patient data meta-analyses coordinated by the Meta-Analysis Unit of Gustave Roussy Cancer Center. However these meta-analyses bring up clinical and methodological questions, some of which are dealt with in this thesis. First we have studied by different means the interaction between patient level covariate, tumor site and treatment effect. We have also adapted the methodology of network meta-analyses to survival data to perform a global analysis of the entire meta-analysis database, and to rank treatments according to their efficacy, including some treatments that had not been directly compared. Some of these results were eventually confirmed by subsequently published randomized trials. We have reviewed the advantages and limits of network meta-analysis. We have also launched the update of all these meta-analyses in order to produce results consistent with actual clinical practice, update patient follow-up, and collect additional data regarding treatment efficacy, toxicity and compliance. The final results of the taxane induction meta-analysis are presented in this manuscript
APA, Harvard, Vancouver, ISO, and other styles
48

Luong, Ngoc-Du. "Mieux comprendre l’altération microbiologique de saucisses fraîches au travers du prisme de la modélisation." Thesis, Nantes, Ecole nationale vétérinaire, 2020. http://www.theses.fr/2020ONIR150F.

Full text
Abstract:
Le développement des bactéries pendant le stockage est une cause majeure de l’altération de la viande. Comprendre le lien entre les activités bactériennes et l’évolution de l’altération est difficile en raison de la complexité de l’écosystème alimentaire et nécessite l’intégration des données expérimentales variées. Cette thèse porte sur le développement d’outils statistiques et la modélisation de données hétérogènes issues d’analyses sensorielles, microbiologiques et physico-chimiques, en vue de mieux appréhender l’altération de saucisses fraîches de porc et de volaille. Quatre modèles différents ont été développés. Un modèle à effet mixte permet d’explorer les effets du temps de stockage et des stratégies de maîtrise mises en place au niveau industriel (formulation en lactate et atmosphère protectrice). Un modèle bayésien décrit l’évolution du pH des produits. Trois approches de régression multivariée évaluent le lien entre microbiote initial et dynamique de l’altération. Enfin, une approche d’intégration de données multi-block établit des liens de causalité entre le microbiote, le volatilome et les profils sensoriels. Ces modèles ont confirmé le caractère dynamique des réponses associées à l’altération. La formulation et l’atmosphère protectrice se sont avérées avoir un effet différent selon le type de viande et la réponse étudiée. Le modèle multi-block a permis d’identifier des espèces bactériennes à l’origine de molécules volatiles responsables de perceptions sensorielles. La progression vers la prédiction de l’altération à partir de données microbiologiques nécessitera d’explorer encore davantage ces modèles adaptés au traitement de données complexes
The main cause of spoilage in fresh meat products is associated with the development of bacteria during storage. Understanding the link between bacterial activities and spoilage evolution in meat produced with preservations strategies may be difficult because of microbiota complexity and requires appropriate statistical analyses for integrating experimental data. This work aimed to develop innovative modelling tools in order to better understand microbiological spoilage in fresh poultry and pork sausages by integrating experimental data of microbiota, volatilome and sensorial profiles. Four different models were developed. A mixed-effect model enabled to study effects of lactate formulation and modified atmosphere packaging. A Bayesian model enabled to describe product pH over time. Three regression approaches were developed to evaluate the link initial microbiota and spoilage dynamics. At last, a multi-block approach was used to identify the causality link between microbiota, volatilome and sensorial profiles. These models confirmed the dynamical nature of all considered spoilage-related responses. Lactate formulation and MAP revealed to have different effects on spoilage depending on the meat type and the studied response. Specific bacterial groups have been found to be responsible for several volatile compounds responsible producing off-odours. The developed models have several advantages of considering potential biological variability sources and of better analysing complex datasets. Progress towards predicting spoilage from microbiological data will require further exploration of these models suitable for processing complex data
APA, Harvard, Vancouver, ISO, and other styles
49

Jousset, Solène. "Vers l'assimilation de données estimées par radar Haute Fréquence en mer macrotidale." Thesis, Brest, 2016. http://www.theses.fr/2016BRES0029/document.

Full text
Abstract:
La Mer d’Iroise est observée depuis 2006, par des radars à haute fréquence (HF) qui estiment les courants de surface. Ces mesures ont une finesse temporelle et spatiale pour permettre de capturer la dynamique fine du domaine côtier. Ce travail de thèse vise à la conception et l’application d’une méthode d’assimilation de ces données dans un modèle numérique réaliste pour optimiser le frottement sur le fond et corriger l’état du modèle afin de mieux représenter la circulation résiduelle de marée et les positions des fronts d’Ouessant en mer d’Iroise. La méthode d’assimilation de données utilisée est le Filtre de Kalman d’Ensemble dont l’originalité est l’utilisation d’une modélisation stochastique pour estimer l’erreur du modèle. Premièrement, des simulations d’ensemble ont été réalisées à partir de la perturbation de différents paramètres du modèle considérés comme sources d’erreur : le forçage météo, la rugosité de fond, la fermeture turbulente horizontale et la rugosité de surface. Ces ensembles ont été explorés en termes de dispersion et de corrélation d’ensemble. Un Lisseur de Kalman d’Ensemble a ensuite été utilisé pour optimiser la rugosité de fond (z0) à partir des données de courant de surface et d’un ensemble modèle réalisé à partir d’un z0 perturbé et spatialisé. La méthode a d’abord été testée en expérience jumelle puis avec des observations réelles. Les cartes du paramètre z0, optimisés, réalisées avec des observations réelles, ont ensuite été utilisées dans le modèle sur une autre période et les résultats ont été comparés avec des observations sur la zone. Enfin, des expériences jumelles ont été mises en place pour corriger l’état modèle. Deux méthodes ont été comparées, une prenant en compte la basse fréquence en filtrant la marée des données et du modèle pour réaliser l’analyse ; l’autre prenant en compte tout le signal. Avec ces expériences, on a tenté d’évaluer la capacité du filtre à contrôler à la fois la partie observée du vecteur d’état (courant de surface) et la partie non-observée du système (température de surface)
The Iroise Sea has been observed since 2006 by High Frequency (HF) radars, which estimate surface currents. These measurements offer high resolution and high frequency to capture the dynamics of the coastal domain. This thesis aims at designing and applying a method of assimilation of these data in a realistic numerical model to optimize the bottom friction and to correct the model state in order to improve the representation of the residual tidal circulation and the positions of the Ushant fronts in the Iroise Sea. The method of data assimilation used is the Ensemble Kalman Filter. The originality of this method is the use of a stochastic modeling to estimate the model error. First, ensemble simulations were carried out from the perturbation of various model parameters which are the model error sources: meteorological forcing, bottom friction, horizontal turbulent closure and surface roughness. These ensembles have been explored in terms of dispersion and correlation. An Ensemble Kalman smoother was used to optimize the bottom friction (z0) from the surface current data and from an ensemble produced from a perturbed and spatialized z0. The method is tested with a twin experiment and then with real observations. The optimized maps of parameter z0, produced with the real currents, were used in the model over another period and the results were compared with independent observations. Finally, twin experiments were conducted to test the model state correction. Two approaches were compared; first, only the low frequency, by filtering the tide in the data and in the model, is used to perform the analysis. The other approach takes the whole signal into account. With these experiments, we assess the filter's ability to control both the observed part of the state vector (currents) and the unobserved part of the system (Sea surface Temperature)
APA, Harvard, Vancouver, ISO, and other styles
50

Nalpas, Thierry. "Inversion des grabens du sud de la mer du Nord. Données de sub-surface et modélisation analogique." Phd thesis, Université Rennes 1, 1994. http://tel.archives-ouvertes.fr/tel-00656044.

Full text
Abstract:
Le concept d'inversion tectonique a été introduit par les géologues pétroliers de la Mer du Nord, pour traduire l'aspect anormal de grabens formant des hauts structuraux par rapport à leurs plates-formes. La compréhension des mécanismes de l'inversion et des paramètres influents sur ces mécanismes est très importante à la fois pour l'industrie pétrolière, afin de mieux connaÎtre la genèse et le piégeage des hydrocarbures dans les grabens inversés, mais aussi pour la recherche fondamentale, quant à leur signification géodynamique. En effet, étudier l'inversion tectonique des bassins sédimentaires, et tenter d'en comprendre le fonctionnement, c'est aussi aborder la déformation continentale sous l'un d~ ses aspects fondamentaux: la réactivation des structures héritées d'échelle crustale. La zone d'étude considérée dans ce travail est le Sud de la Mer du Nord, et plus particulièrement le "Broad Fourteens basin" qui fait partie des grabens hollandais. Les grabens de la Mer du Nord se sont formés entre le Trias et le Crétacé inférieur et ont été inversés au Crétacé supérieur et au Tertiaire. La variation de leur orientation et la présence pour certains d'entre eux' d'un niveau de décollement supracrustal, le sel Zechstein, en font des structures très diversifiées. L'analyse précise des données de sub-surface du "Broad Fourteens Basin" a d'abord permis d'identifier les paramètres les plus importants de l'inversion tectonique. Plusieurs séries d'expériences sur modèles analogiques ont ensuite été réalisées pour étudier les effets de ces paramètres sur le développement des structures d'inversion. Les expériences ont montré que l'inversion d'un graben d'échelle crustale par réactivation de failles normales à fort pendage ne peut se faire qu'a obliquité a entre graben et compression inférieure à 45°. L'inversion se soit par une partition de la déformation entre décrochement sur le normales héritées et chevauchement néoformés (a > 45°), soit par une réactivation des failles normales en chevauchements oblique (a < 45°). Lorsque la couverture est décollée du socle, le chevauchement du remplissage du graben sur les plates-formes est localisé sur les bordures. Cet effet est accentué par la présence de diapirs de bordure de graben lorsqu'ils existent. Cette analyse structurale détaillée, menée sur le "Broad Fourteens Basin", a ensuite été étendue aux autres grabens des domaines Centre et Sud de la Mer du Nord. L'ensemble des données cinématiques obtenues est utilisé pour proposer une interprétation géodynamique de l'inversion des grabens de la Mer du Nord en tant qu'e conséquence de la collision Alpine.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography