To see the other types of publications on this topic, follow the link: Outil de développement.

Dissertations / Theses on the topic 'Outil de développement'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Outil de développement.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Balineau, Gaëlle. "Le commerce équitable : un outil de développement ?" Phd thesis, Université d'Auvergne - Clermont-Ferrand I, 2010. http://tel.archives-ouvertes.fr/tel-00538805.

Full text
Abstract:
Le Commerce Équitable (CE) est défini par les principaux acteurs qui s'en réclament comme un partenariat commercial dont l'objectif est de parvenir à une plus grande équité dans le commerce mondial. Il contribue au développement durable et à la lutte contre la pauvreté en offrant de meilleures conditions commerciales aux producteurs des pays en développement (prix d'achat couvrant les coûts de production, accès au crédit, engagement { long terme), ainsi qu'une assistance technique à leurs organisations. Dans ce contexte, plusieurs gouvernements considèrent le CE comme un instrument au service du développement. Le CE peut-il réellement être un outil de développement ? L'objectif de cette thèse est d'apporter quelques éléments de réponse à cette question. Le chapitre 1 décrit en détail l'histoire, les principes et le fonctionnement du CE contemporain. Le chapitre 2 évalue l'impact du projet de coton équitable au Mali. Il est basé sur une enquête de terrain réalisée par l'auteur et montre que le CE a d'autant plus de bénéfices qu'il est intégré dans les stratégies locales de développement. Le chapitre 3 analyse la consommation de produits équitables { partir d'une base de données recensant les achats quotidiens de 12 000 ménages français. L'estimation d'un système de demande de type Working-Leser montre que les biens équitables sont des biens de luxe, dont la consommation dépend très clairement de la perception que les consommateurs ont du CE. Le chapitre 4 fait une nouvelle proposition quant à la nature des biens équitables : s'ils peuvent effectivement être considérés comme des biens de confiance, comme c'est systématiquement le cas dans la littérature ({ une exception près), c'est surtout leur caractère « indéterminé » au sens de Lupton (2005) qui nous semble déterminant pour l'avenir du CE. En effet, tant que le CE ne précisera pas davantage ses objectifs, ses moyens et ses résultats, il est soumis à un risque de disparition.
APA, Harvard, Vancouver, ISO, and other styles
2

Barabba, Saleh. "L'aide publique saoudienne au développement : instrument politique ou outil de promotion de développement ?" Thesis, Clermont-Ferrand 1, 2012. http://www.theses.fr/2012CLF10389.

Full text
Abstract:
Notre recherche combine deux approches dans l’analyse de la politique étrangère saoudienne relative à l’octroi de l’aide au développement: i) une approche interne (analyse des politique générales : l’élaboration et la mise en œuvre des programmes d’aide publique au développement ; l’identification des principaux acteurs de l’APD et l’analyse des résultats de l’APD ? ii) et une approche internationale (en se basant sur la théorie des relations internationales, nous identifions les mécanismes qui sous-Tendent la politique d’aide saoudienne ainsi que le rôle du Fonds Saoudien de Développement dans l’efficacité et l’efficience de l’Aide Publique au Développement. Nous cherchons, tout au long de ce travail, à apporter des éléments de réponse quant à l’ambivalence qui plane sur le visé de l’APD saoudienne. Nous traitons la question des aides internationales et les programmes du développement présentés par le gouvernement saoudien. L’objectif de ce travail sera donc l’étude et l’analyse du rôle de l’APD saoudienne dans la lutte contre la pauvreté essentiellement dans les pays en développement<br>Our research combines two approaches in the analysis of Saudi foreign policy on the granting of development assistance: i) an internal approach (general policy analysis: the development and implementation of assistance programs official development identifying the main actors of ODA and analysis of the results of ODA? ii) and an international approach (based on the theory of international relations, we identify the mechanisms that underlie Saudi aid policy and the role of the Saudi Development Fund in the efficiency and effectiveness of ODA. We seek, throughout this work, to provide some answers about the ambivalence that hovers over the target of ODA Saudi Arabia. We treat the issue of international aid and development programs presented by the Saudi government. objective of this work will be the study and analysis of the role of ODA Saudi in the fight against poverty mainly in developing countries
APA, Harvard, Vancouver, ISO, and other styles
3

Perron, Mathieu. "Développement d'un outil portable d'analyse modale par réponse temporelle." Mémoire, École de technologie supérieure, 2010. http://espace.etsmtl.ca/1072/1/PERRON_Mathieu.pdf.

Full text
Abstract:
L'analyse modale s'impose de plus en plus comme procédé de caractérisation des comportements dynamiques de systèmes. Son application à l'étude des phénomènes basse fréquence sur les réseaux électriques propose un large éventail de solutions, applicables à des contextes particuliers. Toutefois, la taille grandissante des réseaux actuels augmente considérablement la complexité de leur modélisation et du traitement de leurs variables connues. Pour ces raisons, le besoin d'une approche signal à l'analyse modale devient essentiel dans le but de répondre aux contraintes des approches systèmes habituelles. Ce rapport de recherche traite d'un outil portable d'analyse modale par réponse temporelle. Le produit logiciel développé fournit une solution d'identification par modèle d'état d'ordre réduit, associée à une étude paramétrique des éléments de Prony. La réalisation Single-InputSingle-Output (SISO) est basée sur le lien entre le signal temporel du système analysé et la réponse à l'impulsion du modèle d'état équivalent. Un algorithme ERA/Prony est développé et permet d'obtènir les paramètres de chacune des sinusoïdes amorties qui composent le signal, sans nécessiter d'informations sur la provenance de celui-ci. Le processus d'identification par modèle d'état est entièrement détaillé et propose une réalisation par décomposition singulière d'une matrice de Hankel construite à partir des échantillons du signal. Le modèle est réduit d'après l'étude des valeurs singulières obtenues. Par la suite, les paramètres de Prony sont estimés selon une décomposition par éléments propres et un calcul des éléments résiduels à l'aide des matrices d'état du modèle. Les particularités logicielles sont précisées et trois études de cas démontrent la validité de l'outil. Les cas étudiés incluent la décomposition d'un signal sinusoïdal simple, la caractérisation de phénomènes oscillatoires sur le réseau à quatre machines de Kundur et l'analyse d'une lecture provenant du réseau d'Hydro-Québec, à la suite d'une perte de synchronisation entre les postes LG4 et Boucherville. Les études s'effectuent grâce à l'importation de l'outil dans le logiciel de traitement de signal ScopeView d'Hydro-Québec. Cette utilisation démontre la portabilité du code source et permet d'étendre la fonctionnalité d'analyse modale à des logiciels tels qu'HYPERSIM et EMTP-RV.
APA, Harvard, Vancouver, ISO, and other styles
4

Bouthier, Corinne. "Le droit comme outil de développement du commerce électronique." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSES049.

Full text
Abstract:
Le commerce électronique est perçu comme une source de croissance économique. S’il se développe grâce aux nouvelles technologies de l’information et de la communication, un cadre juridique s’impose pour favoriser son essor. Notre étude s’attachera, en recherchant les multiples sources de la règlementation, principalement européenne et nationale, à démontrer qu’elle s’est orientée selon deux axes principaux : assurer la liberté du commerce électronique, d’une part, et la confiance dans ce mode de commerce inédit, d’autre part. Nous établirons que la liberté de son exercice ne peut être absolue et qu’elle se conjugue avec l’intérêt du consommateur. Aussitôt que le cadre juridique est absent ou inadapté la liberté du e-commerce est fragilisée. L’étude s’intéressera, enfin, aux règles qui créent la confiance des acteurs dans le commerce électronique : leur confiance commune dans la transaction par voie électronique, encadrée et sécurisée ; leur confiance singulière, respectant leurs intérêts respectifs, qu’il s’agisse de protéger le patrimoine incorporel de l’entreprise ou le consentement du consommateur lors de son acte d’achat ou du traitement de ses données à caractère personnel<br>E-commerce is considered to be a source of economic growth. If it has developed thanks to the new information and communication technologies, a legal framework is nevertheless needed to promote its growth. Our study will seek, by considering the multiple sources of regulation, mainly European and national, to demonstrate that the latter is oriented along two main axes: ensuring, on the one hand, the freedom of electronic commerce, and, on the other, confidence in this new mode of commerce. We shall establish that the freedom of its exercise cannot be absolute, and that this is indissociable from the interest of the consumer. As soon as a legal framework is absent or inappropriate, the freedom of e-commerce is weakened. Finally, the study will focus on the rules that create the confidence of the participants in e-commerce: their joint confidence in electronic transactions secured within a legal framework; their singular trust, regarding their respective interests, whether it concerns the protection of the intangible assets of the company, or the consent of e-consumers, during their act of purchase as well as in the processing of their personal data
APA, Harvard, Vancouver, ISO, and other styles
5

Kadri, Reda. "Proposition d'une méthode et d'un outil pour le développement d'applications." Phd thesis, Université de Bretagne Sud, 2009. http://tel.archives-ouvertes.fr/tel-00511828.

Full text
Abstract:
De nos jours, le traitement de l'information par l'intermédiaire d'applications Web est largement adopté. Les avantages de ces applications ne sont plus, aujourd'hui, à démontrer et leur adoption massive par les entreprises ou par les administrations est un fait indéniable. Nous remarquons, par exemple, la forte émergence d'applications et de systèmes collaboratifs de gestion de contenus en ligne, de syndication, d'importation et d'exportation de données. En plus du développement de nouvelles applications Web, les entreprises doivent, maintenant, faire face aux demandes de transformations, ou de pseudo migration, des applications de type Desktops vers le mode Web. Ainsi, des milliers d'applications de différents domaines sont appelées à être déployées sur le Web. Ainsi, dans un futur proche, nous n'aurons plus besoin d'installer de logiciels sur nos ordinateurs ni même d'y stocker des fichiers. En effet, d'ores-et-déjà, tous ces services peuvent être rendus par le Web 2.0. Chaque application ou presque a son pendant en ligne, qu'il s'agisse de retoucher une image, de faire du montage vidéo, de convertir des fichiers, de créer des documents, etc. L'objectif de cette thèse, dans le cadre d'une collaboration entre Alkante (société spécialisée dans le conseil et l'ingénierie des technologies de l'information) et le Valoria, est d'offrir un cadre (outils et méthodes) pour faciliter, dans le paradigme composant, le développement et l'évolution d'applications Web. Mon premier travail a consisté à proposer un protocole de migration permettant un passage, en douceur, d'un processus de développement classique à un processus de développement à base de composants logiciels. Ce protocole a rendu possible la réutilisation de codes existants et a permis, aux développeurs, de se familiariser avec les concepts et les bases du développement à base de composants logiciels. Une fois cette migration effectuée, j'ai proposé une nouvelle approche pour la modélisation d'applications Web dans un contexte purement composant. Cependant, une autre question liée à la maintenance et aux coûts d'évolution se posait. Les applications Web sont particulièrement sujettes à de nombreuses évolutions, très régulières dans le temps. Afin de maîtriser l'évolution des applications développées et pour réduire les coûts de maintenance, j'ai utilisé une solution appelée contrats d'évolution.
APA, Harvard, Vancouver, ISO, and other styles
6

Thibodeau-Gagnon, Annie-Ève. "Prédation intraguilde chez les Coccinellidae : développement d'un nouvel outil moléculaire." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27507/27507.pdf.

Full text
Abstract:
La prédation intraguilde (IGP) constitue une interaction qui suscite beaucoup d'intérêt chez les écologistes et les utilisateurs de la lutte biologique puisqu’elle engendre, dans certains cas, des impacts négatifs sur le contrôle des populations d’organismes nuisibles. Les études réalisées jusqu’à présent sont en grande majorité effectuées dans des milieux artificiels, pouvant interférer avec les interactions intraguildes. Ce projet visait à étudier l'IGP en milieu ouvert dans les champs de soya, au sein de quatre espèces de coccinelles: Harmonia axyridis, Coccinella septempunctata, Coleomegilla maculata lengi et Propylea quatuordecimpunctata. Les populations de ces prédateurs subissent fréquemment des pertes d’effectifs liées à l’IGP. Les principaux objectifs de cette étude étaient de: i) développer des outils moléculaires permettant de détecter et de quantifier in situ les interactions intraguildes; ii) établir des relations entre l’intensité de l’IGP et certains paramètres écologiques; et iii) évaluer l'impact de la densité des proies extraguildes et de la structure de la plante sur l’IGP entre les coccinelles. Des amorces PCR, élaborées pour chacune des quatre espèces de coccinelles, ont servi à détecter les proies intraguildes du contenu gastrique de près de 1000 prédateurs récoltés sur trois années, permettant ainsi d’établir des taux d’IGP mutuelle d'en moyenne 35% entre les espèces de Coccinellidae. Nous avons appliqué à ces taux une correction pour compenser les différences de temps de digestion entre prédateurs et proies de différentes espèces. Les facteurs favorisant l’IGP étaient : la densité des proies extraguildes, le ratio prédateur:proie, le stade de développement du prédateur ainsi que la période d'échantillonnage. Nous avons de plus évalué l'impact de la densité des proies extraguildes et de la structure de la plante sur l'IGP entre H. axyridis et P. quatuordecimpunctata. L’IGP était modulée principalement par la densité des proies extraguildes. Ces travaux démontrent l'omniprésence de l'IGP dans les interactions entre les coccinelles et identifient les principaux facteurs écologiques modulant son intensité. Cette thèse soutient donc que l’IGP, bien qu’extrêmement fréquente, n’a pas toujours un impact concret sur la lutte biologique et qu’il importe de considérer les principaux facteurs régulant son intensité.<br>Understanding intraguild predation (IGP) between predators is of great interest for ecologists and biological control practitioners because its presence can, in some cases, impede biological control. Studies on IGP are usually realized under artificial environments, which may interfere with intraguild predation. This project focused on the study of IGP, in open field in soybean crop, between four species of ladybirds: Harmonia axyridis, Coccinella septempunctata, Coleomegilla maculata lengi and Propylea quatuordecimpunctata. Those predator populations frequently engage in IGP and it can be an important cause of mortality. Principal goals of this study were to: i) develop molecular tools to detect and quantify in situ IGP; ii) establish relations between IGP and ecological factors; and iii) evaluate the impact of extraguild prey density and plant structure on IGP between ladybirds. DNA markers have been developed for four species of ladybirds to detect intraguild prey in the gut-content of near 1000 predators, sampled in three years. We established a mean rate of IGP of 35% between ladybird species. We applied a correction to those rates to compensate for differences in digestion rate between predators and prey of different species. Factors increasing the prevalence of IGP were: extraguild prey density, the ratio of predator:prey, developmental stage of the predator and seasonality. Finally, we evaluated the impact of extraguild prey density and plant structural complexity on IGP between H. axyridis and P. quatuordecimpunctata. IGP was principally modulated by extraguild prey density. This study shows the ubiquity of IGP among ladybird interactions and the understanding of principal factors regulating the intensity of IGP. This thesis supports the hypothesis that IGP, even if extremely frequent, did not always have a measurable impact on biological control and consideration of principal ecological factors modulating its intensity is important.
APA, Harvard, Vancouver, ISO, and other styles
7

Côté, Jean-François. "Développement d'un outil piézoélectrique pour l'usinage par électroérosion dans l'air." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25381/25381.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Cantieni, Eric. "Développement d'un outil pour la synthèse hiérarchique de systèmes analogiques." Ecully, Ecole centrale de Lyon, 1998. http://www.theses.fr/1998ECDL0014.

Full text
Abstract:
La conception d'un circuit integre analogique, par son manque d'automatisation, est devenue un element critique du temps, et donc du cout, de developpement d'un systeme electronique mixte. Nous nous sommes appliques a realiser un outil automatisant la synthese de circuits analogiques. Il delivre le schema a transistors dimensionnes de blocs fonctionnels analogiques, les performances realisees par cette structure repondant a des specifications introduites par l'utilisateur. En calquant l'approche employee par les concepteurs analogiques, nous decomposons la structure d'un circuit sur differents niveaux d'abstraction. Un circuit, ou un bloc, est realise par une topologie, architecture ou schema electrique, formee d'une association de sous-blocs, de plus faible complexite, ou de composants. Chaque sous-bloc est, a son tour, realise par une topologie. Cette approche hierarchique, permet a l'outil de synthetiser des fonctions complexes, presentes dans des architectures de systemes, ainsi que des blocs de plus bas niveau, tel que l'amplificateur operationnel. Nous avons developpe, en langage objet c++, les primitives d'une description homogene de la structure hierarchisee d'un circuit ainsi que des operateurs arithmetiques dedies aux nombres intervalles. Les composants, les blocs fonctionnels et les structures utilises par le programme sont decrites avec ses primitives. La selection et le dimensionnement d'une structure sont realises a travers l'evaluation, avec une arithmetique des intervalles, d'equations analytiques, non lineaires, presentes dans ces descriptions. L'analyse par intervalles permet de faire progresser la synthese d'un circuit sans que le detail de sa realisation ne soit defini. L'utilisation d'equations non lineaires permet de modeliser precisement les interactions des sous blocs ou composants, definissant le comportement d'une structure. On a introduit les ressources suivantes dans la base de conaissances du programme : des composants actifs et passifs, des schemas a transistors et une architecture utilises pour realiser un amplificateur operationnel. Un montage inverseur, structure d'un filtre du premier ordre, est aussi present. Des simulations electriques des circuits synthetises par l'outil ont permis de valider le travail realise.
APA, Harvard, Vancouver, ISO, and other styles
9

Matous, Etienne. "Développement d'une Affitin anti-CD138 comme nouvel outil pour l'imagerie phénotypique." Nantes, 2014. http://archive.bu.univ-nantes.fr/pollux/show.action?id=292bd25e-f4c5-4c09-a6b7-415e1d187fbe.

Full text
Abstract:
L'imagerie phénotypique dans le domaine de la cancérologie est en plein essor. Notre équipe a utilisé une stratégie originale pour développer une nouvelle classe de protéines affines artificielles, les Affitins. Il s'agit de variants de Sac7d, issue de l'archée Sulfolobus acidocaldarius. Ces protéines sont de petite taille (7 kDa), solubles et pourvues d'une très grande stabilité thermique et chimique. Plusieurs études ont permis d'isoler des Affitins de hautes affinités contre différentes protéines d'origine bactérienne ou humaine. En outre, ces protéines peuvent être produites avec un taux d'expression élevé chez E. Coli. Les Affitins présentent donc des propriétés attractives pour une utilisation en imagerie phénotypique en alternative aux anticorps. A l'aide du ribosome display, nous avons sélectionné des Affitins capables de reconnaître le CD138 humain (syndecan-l) sous forme recombinante. Cette protéine transmembranaire est exprimée dans de nombreux carcinomes et son ciblage présente un réel intérêt pour la thérapie et l'imagerie notamment pour le myélome multiple. Le criblage des Affitins sélectionnées par cytométrie en flux a permis d'isoler plusieurs clones présentant des affinités de l'ordre du nanomolaire. La biodistribution d'une Affitin radio marquée a montré un temps de demi-vie biologique adapté à l'utilisation des ces protéines pour la vectorisation de radioisotopes à demi-vies courtes souvent utilisés en imagerie nucléaire. De plus, nous avons démontré dans un modèle murin sous-cutanée de myélome multiple, que l'Affitin anti-CD138 A872 permet de cibler spécifiquement la tumeur sans accumulation dans les organes périphériques comme le foie ou les reins<br>Phenotypic imaging in oncology is booming. Our team used an original strategy to identify a new class of artificial affinity proteins, the Affitins. These are variants of Sac7d, derived from Sulfolobus acidocaldarius. These proteins are small(7kDa), soluble and have very hight termal and chemical stabilities. Several studies have led to the isolation of high affinity Affitins against different bacterial and human proteins. In addition, these proteins can be produced with a high level of expression in E. Coli. Therefore, Affitins offer attractive properties for use in phenotypic imaging as alternative to antibodies. Using ribosome display, we selected Affitins against a recombinant form of human CD138 (syndecan-l). This transmembrane protein is expressed in many tumors and its targeting is of real interest for therapy or imaging of multiple myeloma. Screening of selected clones by flow cytometry allowed us to isolate several Affitins with nanomolar affinities. Biodistribution of a radiolabeled Affitin showed a biological half-life suitable for the use of these proteins for the vectorization of radionuclides with short half-lives often used in nuclear imaging. Furthermore, we demonstrated in a subcutaneous mouse model of multiple myeloma that the anti-CD138 Affitin A872 is able to bind specifically to the tumor without accumulation in peripheral organs such as the liver or kidneys
APA, Harvard, Vancouver, ISO, and other styles
10

Enjalbert, Gérard. "Développement d'un outil de conception assistée par ordinateur : le logiciel circuit." Grenoble INPG, 1989. http://www.theses.fr/1989INPG0095.

Full text
Abstract:
Le but de ce travail est le développement d'un logiciel de CAO orienté vers l'étude de structures de convertisseurs statiques associés à leur environnement. Après une description complète du logiciel, tant sous l'aspect convivial que théorique, nous présentons un ensemble de modifications apportés au post-processeur afin de permettre à l'utilisateur d'étudier les grandeurs électriques qui l'intéresse (courants, tensions simples et composées, analyse harmonique, puissance, valeurs moyennes et efficaces. ,. ) L'implantation de la commande en Modulation de Largeur d'Impulsions met en évidence l'influence des limitations pratiques introduites dans la commande des interrupteurs. L'intégration de boucles de régulation ainsi que sa validation par la comparaison entre la simulation et un montage expérimental complète l'éventail des fonctions disponibles en permettant au logiciel de simuler le comportement d'un convertisseur dans un environnement
APA, Harvard, Vancouver, ISO, and other styles
11

Bournival, Sylvain. "Développement d'un outil d'évaluation de la sécurité aux quais de transbordement." Thèse, Université du Québec à Trois-Rivières, 2005. http://depot-e.uqtr.ca/1308/1/000128609.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Asnar, Raoul. "Développement d'un outil pour établir le flux monétaire des projets de construction." Mémoire, École de technologie supérieure, 2004. http://espace.etsmtl.ca/699/1/ASNAR_Raoul.pdf.

Full text
Abstract:
Dans un contexte actuel de compétition et de complexité croissantes au sein de l'industrie de la construction, il est vital pour un entrepreneur d'exercer un suivi régulier et précis de ses disponibilités en espèces au travers de son flux monétaire. Cette pratique a pour but de prévenir tout risque d'un manque inattendu de liquidité qui pourrait paralyser les activités en cours, voire dans certains cas mener à la faillite. Au cours d'une revue de la littérature approfondie sur la détermination du flux monétaire et son application au domaine de la construction, une quarantaine de variables ont été répertoriées. Leur étude a permis d'en retenir une trentaine comme véritablement influentes à l'échelle du projet du point de vue de l'entrepreneur. Ainsi, une méthode de détermination du flux monétaire de projet basée sur les échéanciers et un devis estimatif a été mise sur pied, puis appliquée à Microsoft Project. De ce fait, il a été possible de générer des courbes de dépenses et de revenus qui tiennent compte de l'ensemble des paramètres retenus, pour aboutir à la détermination du flux monétaire à l'échelle du projet. De plus, l'intégration de la méthode PERT a rendu possible l'introduction d'une probabilité de variation de la durée des activités et a ainsi permis de générer des courbes optimistes, prévisibles et pessimistes. Au final, l'outil développé se révèle parfaitement exploitable et accessible. Celui-ci est doté non seulement d'une grande précision mais également d'un soutien informatique simple et rapide qui offre la possibilité de saisir les mises à jour par des ajustements mineurs. En guise de recommandations, il serait bon que l'outil puisse profiter d'un aspect plus automatique afin d'optimiser encore le rapport temps nécessaire / précision des résultats. Enfin, il est nécessaire qu'il soit étendu à l'échelle de l'entreprise, car c'est ce dernier qui suscite véritablement l'intérêt de l'entrepreneur.
APA, Harvard, Vancouver, ISO, and other styles
13

Garcia, Elise. "L'action internationale des collectivités territoriales : un outil de développement des territoires français?" Phd thesis, Université de Cergy Pontoise, 2013. http://tel.archives-ouvertes.fr/tel-00951551.

Full text
Abstract:
Le mouvement accru de rationalisation des dépenses publiques conduit les acteurs publics français et notamment les collectivités territoriales à faire de nombreux choix et arbitrages parmi les initiatives menées en-dehors du champ traditionnel de leurs compétences obligatoires. " Que faire de l'Action Internationale ? " est au centre des débats, alors que la demande sociale est toujours plus conséquente sur les territoires français. Comment comprendre qu'en parallèle des efforts de plus en plus importants demandés aux citoyens, on dépense de l'argent public ailleurs? En période de crise, certaines politiques publiques sont remises en question et peuvent paraître superflues. Au premier regard, l'action internationale est de celles-ci. Ce travail vise à répondre à la question suivante : pourquoi les collectivités territoriales coopèrent-elles à l'échelle internationale ?Les actions internationales des collectivités territoriales relèvent historiquement d'une démarche de solidarité internationale. La perception de la coopération décentralisée comme outil d'aide au développement dans les pays partenaires est, encore aujourd'hui, une réalité constamment rappelée dans les discours des élus locaux, des associations partenaires, et de l'Etat. Aussi, la coopération décentralisée ne révolutionne-t-elle pas les objectifs généraux de l'Aide Publique au Développement, dans la mesure où elle constitue davantage un changement d'échelle qu'un changement de modèle. Pourtant, ces dernières années, apparaissent des visions plus " stratégiques " de l'AICT, qui a connu des évolutions en termes notamment de diversification géographiques et thématiques. On voit ainsi se développer de plus en plus d'actions internationales à caractère économique ou visant le rayonnement des territoires et leurs positionnement sur la scène internationale.En 2013, l'Action Internationale des Collectivités Territoriales se situe donc, selon les contextes, quelque part entre l'aide et une véritable co-opération. La nécessaire synthèse entre les attentes émises par les collectivités territoriales étrangères et l'intérêt local pour les territoires français oblige alors à questionner les aspects fondamentaux que sont le partenariat et la marge de négociation des deux parties. La réciprocité peut-elle exister ? Est-il possible de penser l'Action internationale comme un outil de résolution des problématiques locales ? De quelle(s) manière les expériences des collectivités territoriales partenaires peuvent elles représenter des sources d'inspiration et d'innovation utiles au développement des territoires français ? Ces différentes questions nous amèneront à interroger la place de l'Action internationale au sein des politiques publiques locales : une compétence à part entière ou un mode d'exercice et d'amélioration des compétences " traditionnelles " ?
APA, Harvard, Vancouver, ISO, and other styles
14

Tumelaire, Charles-François. "Contribution au développement d'un outil de surveillance d'acquisition sur banc d'essais moteur." Paris 6, 2003. http://www.theses.fr/2003PA066493.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Scolan, Simon. "Développement d'un outil de simulation et d'optimisation dynamique d'une centrale solaire thermique." Thesis, Pau, 2020. http://www.theses.fr/2020PAUU3007.

Full text
Abstract:
Dans le contexte climatique et énergétique actuel, des solutions doivent être trouvées pour remplacer progressivement l'usage des énergies fossiles. Le solaire thermique est une ressource disposant d'un fort potentiel encore trop peu exploité en France à l'échelle industrielle. Dans ce contexte, les grandes installations solaires thermiques sont de plus en plus étudiées. Actuellement, la majorité des études porte sur l'optimisation du dimensionnement des centrales en se basant sur des stratégies de pilotage standard. Le présent manuscrit propose une méthodologie de résolution mathématique pour la simulation et l'optimisation dynamique d'une centrale solaire thermique. Ce type d'optimisation permet de prendre en compte la dynamique de ce système, et en particulier la dynamique lente d'un stockage d'énergie thermique, et est réalisée en exploitant les degrés de liberté du problème tel qu'on le pose. Ainsi, en laissant libres certains paramètres de design, l'optimisation dynamique permet d'optimiser simultanément le fonctionnement et le dimensionnement de la centrale. Les différents éléments d'une centrale solaire thermique (champ solaire, échangeur de chaleur, stockage thermique, pompes, canalisations) sont modélisés et forment un système d'équations algébro-différentielles. Nous détaillons la méthode de collocation orthogonale sur éléments finis permettant de discrétiser ces équations et d'obtenir ainsi un système comprenant uniquement des équations algébriques. Différents modèles sont confrontés à des données expérimentales issues de la centrale de Condat-sur-Vézère et leur précision est quantifiée. Le développement d'une méthode par simulations et initialisations successives nous a permis de réaliser la simulation dynamique d'une centrale solaire thermique. Cependant, certaines contraintes de fonctionnement (règles de pilotage nécessaires pour saturer les degrés de liberté) sont difficiles à formuler de façon cohérente et implémentable dans le logiciel GAMS utilisé dans ces travaux. L'intérêt de l'optimisation dynamique est de tirer profit des degrés de liberté du problème afin de minimiser/maximiser une fonction objectif (en respectant les contraintes du problème) sans avoir à formuler des contraintes pour saturer les variables d'intérêt. Un premier problème d'optimisation dynamique a été formulé puis résolu suivant une stratégie orientée-équation. Sur un horizon de temps de cinq jours et avec un dimensionnement de centrale fixé, nous avons maximisé les bénéfices liés à la vente de chaleur solaire à un consommateur en optimisant le fonctionnement de la centrale. Cela a notamment fait ressortir des stratégies parfois contre-intuitives permettant une amélioration significative de la fonction objectif par rapport à des pilotages plus « classiques ». En particulier, l'utilisation d'une inclinaison dynamique des capteurs s'est montrée efficace, d'une part, pour augmenter l'énergie captée par le champ solaire et, d'autre part, pour gérer d'éventuelles surchauffes en défocalisant les capteurs par rapport à la trajectoire de captation maximale. L'utilisation d'un stockage thermique a également été utile pour permettre le déphasage entre la production et la demande. La formulation d'un second problème d'optimisation, sur un horizon de temps d'un an, a permis de minimiser le coût moyen de la chaleur solaire vendue au consommateur (sur la durée du projet) en déterminant le dimensionnement optimal de la centrale et les profils temporels optimaux des variables de fonctionnement en fonction de la courbe de charge. Des difficultés ont été rencontrées, notamment pour conserver un fonctionnement cohérent sur la période d'optimisation. Finalement, nous avons listé un certain nombre de pistes qui pourraient potentiellement améliorer les résultats obtenus<br>In the current climate and energy context, solutions must be found to gradually replace the use of fossil fuels. Solar thermal energy is a resource with great potential that is still insufficiently exploited in France on an industrial scale. In this context, large solar thermal installations are increasingly studied. Currently, a majority of studies focus on optimizing the sizing of the plants based on standard operating strategies. This manuscript offers a mathematical resolution methodology for the simulation and dynamic optimization of a solar thermal plant. This type of optimization makes it possible to take into account the dynamics of this system and in particular the slow dynamics of a thermal energy storage. It is carried out by exploiting the degrees of freedom of the problem. By leaving certain design parameters free, dynamic optimization makes it possible to optimize the operation and sizing of the plant simultaneously.The different elements of a solar thermal plant (solar field, heat exchanger, thermal energy storage, pumps, pipes) are modeled and form a Differential Algebraic Equation system. We have described the orthogonal collocation method which allows to discretize these equations and thus, to obtain a system comprising only algebraic equations. Different models are confronted with experimental data from a plant located in Condat-sur-Vézère (France). Their precision is quantified. The development of a method by successive simulations and initializations allowed us to carry out the dynamic simulation of a solar thermal plant. However, certain operating constraints (control rules necessary to saturate the degrees of freedom) are difficult to formulate in a coherent and implementable way in the GAMS software used in this work. The interest of using dynamic optimization is to take advantage of the degrees of freedom of the problem in order to minimize / maximize an objective function (while respecting the constraints of the problem) without having to formulate constraints to saturate them.A first dynamic optimization problem was formulated and then solved, using an equation-oriented strategy. Over a five-day time horizon and with a fixed plant sizing, we have maximized the benefits from the sale of solar heat to a consumer by optimizing the operation of the plant. This notably brought to light counter-intuitive operating strategies allowing a significant improvement of the objective function compared to more standard strategies. In particular, the use of a dynamic inclination of the flat-plate collectors (as with a solar tracking device) has proved effective, on the one hand, to increase the energy captured by the solar field and, on the other hand, to handle possible overheating by defocusing the collectors from the maximum energy capture trajectory. The use of a thermal energy storage was also useful to allow the phase difference between production and demand.The formulation of a second optimization problem, over a time horizon of one year, made it possible to minimize the average cost of solar heat sold to the consumer (over the duration of the project) by determining the optimal sizing of the plant and the optimal time profiles of the operating variables as a function of the load curve. Difficulties have been encountered, in particular to maintain consistent operation over the optimization period. Finally, we listed a number of leads that could potentially improve the results obtained
APA, Harvard, Vancouver, ISO, and other styles
16

Voldoire, Adrien. "Outil de développement et d'optimisation dédié aux onduleurs SiC de forte puissance." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT037.

Full text
Abstract:
La volonté de diminuer la consommation en carburant en aéronautique amène à repenser les architectures de distribution et de conversion de puissance embarquées. L’utilisation d’un outil d’optimisation déterministe apparait comme une solution prometteuse pour prendre en compte les compromis intrinsèques aux convertisseurs statiques en pré-dimensionnement, avec pour objectif de minimiser leur masse. Un outil d’optimisation est donc proposé pour apporter des éléments de comparaison entre différentes topologies d’onduleur et entre différentes solutions technologiques.Le développement de l’outil passe par l’élaboration de modèles analytiques pour être compatible avec l’utilisation d’un algorithme à base de gradients. Une analyse harmonique reposant sur des transformées de Fourier permet de reconstituer les ondulations de chaque signal, en regard des normes aéronautiques. La modélisation s’intéresse également à la construction de modèles pour les composants passifs et actifs, permettant en particulier d’évaluer les pertes et donc le rendement du convertisseur. L’intégralité des modèles développés fait l’objet d’une validation expérimentale sur un prototype à 10 kW.L’utilisation d’un algorithme à base de gradient n’étant pas classique en électronique de puissance, des études sont menées pour valider la méthodologie proposée. Ces études montrent l’adéquation du choix d’un tel algorithme avec le besoin de pré-dimensionnement, tout en indiquant ses limites et les perspectives. Enfin, l’outil d’optimisation est utilisé pour comparer différentes solutions architecturales et technologiques sur des cas d’application aéronautiques. Les résultats obtenus sont discutés en regard des méthodes de dimensionnement classiques<br>The exponential development of aircraft transportation is a threat in the context of global warming. One of the solutions investigated consists in increasing the amount of embedded electrical power systems and actuators. Using a deterministic optimization tool appear as a promising solution to take into account the multiple compromises in a power converter design during the pre-design step, with the goal to minimize the weight. An optimization tool is proposed to bring comparative elements between different inverter topologies and technological solutions.The development of the tool requires elaborating analytical models to be compliant with the gradient-based algorithm. Harmonic analyses with Fourier transform enable calculating the signal ripples, to respect aircraft standards. Components are also designed precisely with appropriate loss models to estimate the converter efficiency. All the developed models are experimentally validated with a 10 kW prototype.As the use a gradient-based algorithm is not common in power electronics, studies are carried out to validate this proposed methodology. These studies show the effectiveness of the algorithm choice in the pre-design step, and indicates some limits and forecasts. Finally, the algorithm is used to compare different architectural and technological solutions on aircraft cases. The results are discussed regarding classical sizing methodologies
APA, Harvard, Vancouver, ISO, and other styles
17

Andre, Estelle. "Développement d’un outil EHD microfluidique pour la mesure de propriétés physico-chimiques." Electronic Thesis or Diss., Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLET029.

Full text
Abstract:
L’expérimentation haut-débit (EHD) représente une demande en croissance dans le domaine de la recherche. Cela fait maintenant plusieurs années que la microfluidique et en particulier la microfluidique digitale est citée comme méthode prometteuse dans ce domaine. En effet, elle permet l’utilisation de faibles volumes mais surtout la possibilité de traiter chaque goutte comme un microréacteur indépendant. L’analyse du contenu de la goutte est souvent réalisé sur ses propriétés optiques. Nous voulons ouvrir cette analyse à d’autres propriétés, en particulier physico-chimiques, comme la viscosité. L’objectif de ce travail est la mise en place d’une puce pour la mesure haut débit de la viscosité en microfluidique digitale. Pour atteindre cet objectif, nous avons choisi d’étudier le phénomène de déformation et relaxation d’une goutte à la sortie d’une restriction microfluidique. Dans le cas de fluides Newtoniens, nous avons établi une corrélation permettant de relier la déformation maximale de la goutte aux différentes grandeurs gouvernant le phénomène et en particulier la viscosité. Nous avons aussi montré que la corrélation trouvée reste valable lorsque les fluides mis en présence sont plus complexes c’est-à-dire pour des systèmes avec tensioactifs ou constitués de polymères présentant un comportement rhéologique non-Newtonien. L’intégration d’un mélangeur à la puce microfluidique permet de faire un premier pas vers le haut-débit car notre puce permet ainsi d’obtenir une mesure de viscosité réalisable rapidement sur des échantillons de compositions différentes et applicable à des fluides complexes<br>High- throughput experimentation (HTE) represents a growing demand in the field of research. Microfluidics, and in particular digital microfluidics, have been cited as a promising method in this field for several years now. Indeed, it allows the use of small volumes but especially the possibility ton consider each droplet as an independent microreactor. The analysis of the content of the droplet is often performed on its optical properties. We want to open this analysis to other properties, especially physicochemical properties, such as viscosity. The objective of this work is the development of a chip for the high-throughput measurement of viscosity in digital microfluidics. To achieve this goal, we have chosen to study the phenomenon of deformation and relaxation of a droplet at the exit of a microfluidic constriction. In the case of Newtonian fluids, we have established a correlation linking the maximum deformation of the droplet to the different numbers governing the phenomenon and in particular the viscosity. We have also shown that the correlation found is valid when complex fluids are in presence such as fluids containing surfactants or non-Newtonian polymers. The integration of a mixer to the microfluidic chip allows to make a first step towards high-throughput experimentation because our chip thus makes it possible to obtain quickly a measurement of viscosity on samples of different compositions applicable to complex fluids
APA, Harvard, Vancouver, ISO, and other styles
18

Kadri, Réda. "Proposition d'une méthode et d'un outil pour le développement d'applications Web-riches." Lorient, 2009. http://www.theses.fr/2009LORIS135.

Full text
Abstract:
De nos jours, le traitement de l'information par l'intermédiaire d'applications web est largement adopté. Les avantages de ces applications ne sont plus, aujourd'hui, à démontrer et leur adoption massive par les entreprises ou par les administrations est un fait indéniable. Nous remarquons, par exemple, la forte émergence d'applications et de systèmes collaboratifs de gestion de contenus en ligne, de syndication, d'importation et d'exportation de données. En plus du développement de nouvelle applications web, les entreprises doivent, maintenant, faire face aux demandes de transformations, ou de pseudo migration, des applications de type desktops vers le mode web. Ainsi, des milliers d'applications de différents domaines sont appelées à être déployées sur le web. Ainsi, dans un futur proche, nous n'aurons plus besoin d'installer de logiciels sur nos ordinateurs ni même d'y stocker des fichiers. En effet, d'ores-et-déjà, tous ces services peuvent être rendus par le web 2. 0. Chaque application ou presque a son pendant en ligne, qu'il s'agisse de retoucher une image, de faire du montage vidéo, de convertir des fichiers, de créer des documents, etc. L'objectif de cette thèse, dans le cadre d'une collaboration entre alkante (société spécialisée dans le conseil et l'ingénierie des technologies de l'information) et le valoria, est d'offrir un cadre (outils et méthodes) pour faciliter, dans le paradigme composant, le développement et l'évolution d'applications web. Mon premier travail a consisté à proposer un protocole de migration permettant un passage, en douceur, d'un processus de développement classique à un processus de développement à base de composants logiciels. Ce protocole a rendu possible la réutilisation de codes existants et a permis, au développe urs, de se familiariser avec les concepts et les bases du développement à base de composant:p logiciels. Une fois cette migration effectuée, j'ai proposé une nouvelle approche pour la modélisation d'applications web dans un contexte purement composant. Cependant, une autre question liée à la maintenance et aux coûts d'évolution se posait. Les applications web sont particulièrement sujettes à de nombreuses évolutions, très régulières dans le temps. Afin de maîtriser l'évolution des applications développées et pour réduire les coûts de maintenance, j'ai utilisé une solution appelée contrats d'évolution<br>Nowadays, information processing via web applications is widel y adopted. The advantages of these applications are already demonstrated massivel y by enterprises and administrations. We notice for example, the emergence of collaborative content management systems and rss syndication systems. Ln addition to the development of new web applications, companies should take into consideration the transformation requirements or the pseudo-migration, of desktop llke applications into the web. What's more, many applications across different domains have been slated for web deployment. Consequentially, ln the near future, users will no longer have to install software on their machines, nor retain files locall y. Ln effect, all of these services can be provided through web 2. 0. Currentl y, many applications have online equivalents whether retouching images, editing video, converting files, creating documents, etc. Ln a collaboration between alkante sas and valoria, the main objective of this thesis is to provide a framework (tools and methods) to facilitate the development and evolution of web applications through a component-based paradigm. My first work consisted of proposing a migration protocol to facilitate the transition from a classic development process to a component-based process. This protocol allowed the reuse of existing code and familiarized developers with component development concepts. Once this migration was successful, 1 proposed a new approach to model web applications ln purel y component-based context. At the same time, 1 addressed another challenge related to the maintenance and evolution cost of web applications: often, they are subject to numerous and periodic evolutions. Ln oroer to streamline the evolution of these applications and to reduce the cost of their maintenance, 1 used a solution called "evolution contracts. "
APA, Harvard, Vancouver, ISO, and other styles
19

Michel, Georges, and Chantal Guglielmi-Domenech. "Conception et réalisation d'un outil de développement cognitif intelligemment assité par ordinateur." Aix-Marseille 1, 1996. http://www.theses.fr/1996AIX10076.

Full text
Abstract:
L'objectif de cette recherche est de creer une situation d'apprentissage par l'action et plus precisement d'apprentissage par la resolution de probleme, mediatise par un systeme d'aide, pour favoriser l'evolution du fonctionnement cognitif de l'apprenant. Il s'agit de l'elaboration d'un systeme d'aide a partir de l'analyse et de la modelisation du fonctionnement cognitif d'adultes de bas niveau de qualification en situation de resolution de probleme. Un enseignement interactif assiste par ordinateur (e. I. A. O. ) a pour objectif de favoriser l'acquisition de connaissances. Dans notre cas il se transforme en systeme d'aide a l'evolution des processus cognitifs mis en jeu, dans une situation de resolution de probleme, par des adultes dits "de bas niveau de qualification". Cette recherche montre l'interet et la necessite de partir des dysfonctionnements cognitifs manifestes dans cette situation par des adultes. L'analyse et la modelisation des fonctionnements cognitifs permet d'elaborer le module diagnostic, module central du systeme d'aide. Le systeme offre essentiellement : - l'aide en ligne pendant la resolution du probleme, - le diagnostic de l'activite en temps reel, - la proposition de taches adaptees au degre et au type de dysfonctionnement diagnostique, - l'ouverture permettant d'integrer de nouveaux dysfonctionnements et ou de nouvelles taches. Une methodologie de creation de systemes d'aide est proposee. Elle met l'accent principalement sur le role central des modeles de fonctionnement cognitif des sujets, sur l'importance de l'ergonomie du systeme et sur l'interet d'un travail commun psychologue et informaticien.
APA, Harvard, Vancouver, ISO, and other styles
20

Turgeon, Daniel. "L'incubateur d'entreprises : un outil de développement au service de la PME naissante." Thèse, Université du Québec à Trois-Rivières, 1987. http://depot-e.uqtr.ca/5720/1/000568977.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Chirouf, Farid. "Développement d'un outil logiciel industriel d'aide à la conception des oscillateurs à quartz." Phd thesis, Université de Franche-Comté, 2005. http://tel.archives-ouvertes.fr/tel-00081366.

Full text
Abstract:
La conception des oscillateurs à quartz a été longtemps basée sur des méthodes empiriques ou des techniques de modélisation approximatives ou inappropriées. Bien que ces méthodes permettent de réaliser des oscillateurs stables, leur procédure de conception reste lourde et fastidieuse et le comportement du circuit oscillateur n'est pas toujours déterminé avec une précision optimale. Le logiciel ADOQ (Analyse Dipolaire des Oscillateurs à Quartz) a été développé pour remédier aux limitations de ces méthodes. Cet outil fondé sur l'analyse dipolaire consiste à modéliser un oscillateur à quartz en tenant compte des non linéarités de la partie amplificateur séparément de celles du résonateur. Grâce à cette séparation, on s'affranchit du temps de calcul prohibitif imposé par le coefficient de qualité très élevé du résonateur. Le comportement non linéaire de l'amplificateur est déterminé en boucle ouverte par une analyse temporelle réalisée à l'aide d'un simulateur électrique de type SPICE. Les résultats fournis par ce simulateur permettent de déterminer avec précision l'impédance non linaire équivalente de l'amplificateur, c'est-à-dire son impédance en fonction de la fréquence et de l'amplitude. L'analyse consiste ensuite à rechercher de manière itérative la solution en boucle fermée à partir d'une série d'analyses dipolaires en boucle ouverte et de définir avec précision les conditions de fonctionnement de l'oscillateur : fréquence, amplitude, puissance d'excitation du résonateur en régime permanent, régime transitoire et spectres de bruit d'amplitude et de phase. ADOQ permet également de déterminer la sensibilité des caractéristiques de l'oscillateur en fonction des variations de la valeur des composants ou d'autres paramètres tels que la tension d'alimentation ou la température. La méthode dipolaire nécessite de calculer l'impédance non linaire de l'amplificateur en fonction de l'amplitude de la source harmonique en régime permanent. Bien que la séparation du résonateur et de l'amplificateur permette un gain de temps appréciable, l'utilisation d'un simulateur temporel tel que SPICE nécessite tout de même d'attendre que le régime permanent soit atteint ce qui reste pénalisant pour la méthode. D'autres méthodes d'analyses utilisées dans certains simulateurs industriels permettent d'obtenir le régime permanent d'un circuit non linaire beaucoup plus rapidement : équilibrage harmonique (harmonic—balance) ou méthode balistique (shooting—method). D'autre part les modèles des composants utilisés par SPICE sont assujettis aux bibliothèques de composants fournies par le concepteur de l'outil ou le fabricant des composants. La plus grande partie du travail effectué dans cette thèse consiste à exploiter les fonctionnalités de l'outil de conception Cadence pour étendre les performances en termes de calculs (SpectreRF) et les possibilités en termes de modèles de composants (Dracula) pour optimiser le logiciel ADOQ. Des tests et des simulations ont été réalisés et les résultats ont permis de mettre en évidence les améliorations acquises ainsi que leurs limites.
APA, Harvard, Vancouver, ISO, and other styles
22

Maurel, Christophe. "Mirage, un nouvel outil de développement pour la réalité virtuelle sous X Windows." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk2/tape16/PQDD_0035/MQ38695.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Sanscartier, Julien. "Développement d'un outil photogrammétrique pour la reconnaissance de nouveaux sites GPS et Glonass." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape8/PQDD_0006/MQ44956.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Bressan, Michaël. "Développement d'un outil de supervision et de contrôle pour une installation solaire photovoltaïque." Phd thesis, Université de Perpignan, 2014. http://tel.archives-ouvertes.fr/tel-01068025.

Full text
Abstract:
L'électricité produite par les rayonnements solaires est devenue de plus en plus onéreuse suite à de nombreuses modifications du tarif de rachat de l'électricité photovoltaïque (PV). Par conséquent, le retour sur investissement devient de plus en plus long. Afin de l'améliorer, un système de supervision peut être une solution pour limiter les pertes de productions et améliorer les performances des installations. Dans ce travail, nous nous intéressons à la réalisation, au test et à la mise en place d'un système d'acquisition de mesures d'installations solaires PV. Ainsi, ces mesures vont amener à une détection et une localisation des nombreux défauts existants. L'objectif de cette thèse est donc de réaliser un système d'information, de conduite et de supervision des installations photovoltaïques tout en respectant des contraintes économiques. Une analyse énergétique d'une installation PV a permis de s'intéresser aux pertes au niveau du générateur PV afin d'en identifier la nature. Pour cela, une modélisation de cellules silicium du type polycristallin dans différents fonctionnements défaillants, par exemple sous conditions d'ombrage, a été effectuée. Cette démarche a été validée par des expérimentations sur site. À partir de cette étude, une méthode de détection et d'identification de défauts est proposée et testée pour la détection du défaut d'ombrage. Nouveau Texte
APA, Harvard, Vancouver, ISO, and other styles
25

Cordovilla, Mikel. "Environnement de développement d'applications multipériodiques sur plateforme multicoeur. La boîte à outil SchedMCore." Phd thesis, Université Paul Sabatier - Toulouse III, 2012. http://tel.archives-ouvertes.fr/tel-00720709.

Full text
Abstract:
Les logiciels embarqués critiques de contrôle-commande sont soumis à des contraintes fortes englobant le déterminisme, la correction logique et la correction temporelle. Nous supposons que les spécifications sont exprimées à l'aide du langage formel de description d'architectures logicielles temps réel multipériodiques Prelude. L'objectif de cette thèse est, à partir d'un programme Prelude ou d'un ensemble de tâches temps réel dépendantes, de générer un code multithreadé exécutable sur une architecture multicoeur tout en respectant la sémantique initiale. Pour cela, nous avons développé une boîte à outil, SchedMcore, permettant: 1- d'une part, la vérification formelle de l'ordonnançabilité. La vérification proposée est basée sur le parcours exhaustif du comportement avec pas de temps discret. Il est alors possible d'analyser des politiques en-ligne (FP, gEDF, gLLF et LLREF) mais également de calculer une affectation de priorité fixe valide et une séquence valide hors-ligne. 2- d'autre part, l'exécution multithreadée sur une cible multicoeur. L'exécutif encode les politiques proposées étudiées dans la partie d'analyse d'ordonnançabilité, à savoir les quatre politiques en-ligne ainsi que les séquences valides générées. L'exécutif permet 3 modes d'utilisation, allant de la simulation temporelle à l'exécution temps précis des comportements des tâches. Il est compatible Posix et facilement portable sur divers OS.
APA, Harvard, Vancouver, ISO, and other styles
26

Razafindratsita, Heriniaina Roger. "Simulateur moléculaire : un outil de base pour le développement des procédés M.O.S. submicroniques." Toulouse 3, 1992. http://www.theses.fr/1992TOU30218.

Full text
Abstract:
La miniaturisation des composants silicium m. O. S. (metal oxyde semiconducteur) necessite l'elaboration des couches d'oxyde de quelque dizaines d'angstroms. A cette epaisseur, un modele a l'echelle atomique capable de rendre compte des phenomenes microscopiques et localises est necessaire. Un tel simulateur s'appuyant sur les modeles energetiques d'interaction a deux corps et a trois corps ainsi que le test de metropolis est realise. Des tests de validite confirment son aptitude a simuler des cristaux de silicium et d'oxyde de silicium. Concernant l'analyse de la formation des toutes premieres couches d'oxyde, la methode consiste a deposer les atomes d'oxygene sur la surface du substrat de silicium et a relaxer la structure. En convertissant le taux d'oxygene en temps de croissance, la methode est appliquee a un exemple concret de croissance d'oxyde a la temperature ambiante et a la pression atmospherique sur une surface de silicium orientee (001). Il en ressort que les premieres couches d'oxyde se forment par un phenomene de deformation-relaxation entre les atomes d'oxygene et les atomes de silicium. A partir des resultats simules, une loi lineaire-logarithmique approchant a 10% pres les resultats experimentaux de croissance d'oxyde dans la gamme d'epaisseurs inferieures a 10 angstroms est proposee. Par ailleurs, l'introduction des defauts ponctuels dans le substrat permet d'affiner le modele. Deux cas de melange de defauts: 1) 1,5% d'interstitiels (c'est-a-dire 3 interstitiels pour 200 atomes de silicium du substrat) et 6% de lacunes, 2) 6% d'interstitiels et 6% de lacunes, ont reduit de moitie l'ecart entre les resultats simules et ceux de l'experience
APA, Harvard, Vancouver, ISO, and other styles
27

Sautet, Bernard. "Spécification et conception d'un outil de développement de systèmes temps-réel-strict distribués." Toulouse 3, 1996. http://www.theses.fr/1996TOU30100.

Full text
Abstract:
Cette these est une contribution au projet r. S. D. P. (real-time system development project) developpe a l'i. R. I. T. , dont l'objectif est d'obtenir la machine dediee la mieux adaptee pour traiter une application complexe temps-reel-strict donnee, sans que le concepteur tienne compte des problemes temporels et materiels. L'objet de cette these concerne l'outil de developpement integrant les differentes etapes d'une methodologie de conception conjointe materiel-logiciel permettant d'automatiser le passage de la specification a la realisation. Le premier chapitre, developpement de systemes temps-reel, introduit les concepts de base sur les systemes temps-reel et dresse un panorama des principales approches de developpement. La methodologie r. S. C. M. (real-time system co-design methodology) qui fait l'objet du deuxieme chapitre, est axee sur un modele d'execution deterministe et realiste en milieu physiquement distribue. Ce modele, qui est a la base de la definition de l'architecture generique et du langage de description r. S. D. L. , doit permettre des transformations (parallelisations, optimisations) automatisant l'obtention d'une configuration optimisee satisfaisant aux contraintes temporelles et conservant la semantique de la description initiale. Le troisieme chapitre, specification de l'outil de developpement, a pour but de preciser les differentes composantes, leurs fonctionnalites et la facon de s'en servir. Ces composantes comportent des primitives dont certaines deja developpees ont dues etre adaptees, alors que d'autres sont issues de cette analyse. L'objectif du quatrieme chapitre est de presenter la partie conception du compilateur de systeme, et plus particulierement le synchroniseur charge de determiner automatiquement les periodes des flots de donnees en entree du systeme, le configurateur qui examine la description fournie par l'utilisateur et lance les transformations necessaires a l'obtention d'une configuration optimisee satisfaisant aux contraintes temporelles, et le paralleliseur qui effectue une transformation de programme sequentiel de type parallelisme de donnees sur un module produisant plusieurs sorties
APA, Harvard, Vancouver, ISO, and other styles
28

Chalandon, Sophie. "Développement d'un outil numérique pour l'étude et l'analyse du choc piéton : approche hybride." Aix-Marseille 2, 2008. http://theses.univ-amu.fr.lama.univ-amu.fr/2008AIX22065.pdf.

Full text
Abstract:
La proportion de piétons blessés et tués est importante et a atteint 16% des accidents de la route, en France en 2006. Leur protection constitue un enjeu important tant au niveau de la recherche qu’au niveau industriel comme par exemple l’évaluation de l’agressivité des véhicules face au piéton. Actuellement, deux principaux outils numériques sont utilisés dans le domaine de la biomécanique du choc piéton : l’approche indéformable multicorps et l’approche déformable par éléments finis. Ces deux approches, si elles sont complémentaires, ne sont toutefois pas complètement adaptés à des fins industrielles et pourraient être optimisées dans ce sens. Notre objectif a donc porté sur la mise en place d’un outil numérique permettant de mesurer l’agressivité des véhicules. Le premier travail de recherche fut d’analyser ces deux approches existantes. D’une part, nous avons déterminé quels sont les aspects du choc piéton qui doivent être pris en compte dans le développement du nouveau modèle. D’autre part, nous avons évalué quels étaient les apports et limites de chaque approche dans un contexte industriel. Nous avons ensuite défini une troisième approche « hybride » correspondant à un modèle indéformable sous un code éléments finis. Il se base sur un modèle détaillé et reproduit la cinématique du genou qui est associée aux critères lésionnels. Il prédit le risque lésionnel intra-articulaire concernant les deux principaux ligaments touchés lors du choc piéton : le ligament collatéral médial et le ligament croisé antérieur. Enfin, le modèle a été testé dans différentes configurations d’accidents pour vérifier l’adaptabilité de notre modèle aux besoins de l’industriel<br>In road accidents, pedestrian victims increase in France up to 16% in 2004. Pedestrian protection is a real stake in industrial and research context. For example, Automobile industry has to evaluate vehicle front end agressivity against pedestrian. In this way, this work is integrated to the Faurecia Innovation centre for vehicle front end conception. Currently, two main numerical approaches are used in the pedestrian impact biomechanical field: multibody rigid approach and deformable finite element approach. They are complementary but not enough adapted to an industrial context and so they could be optimized in this way. The aim of this work is to develop a numerical lower limb model to evaluate vehicle agressivity against pedestrians. The first step was to evaluate the two currently used approaches on two different stages. On the one hand, main features of pedestrian impact were determined to include them in the new model developement. On the other hand, limits and advantages are estimated for each approach in industrial context. So, a third approach called “hybrid” has been defined. It corresponds to a rigid model with finite element solving. The “Hybrid” model is derivate from on an existing deformable leg model and reproduces its kinematics and its injuries criteria in a lateral impact configuration. This model predicts the injury intra-articular risk of the two main ligaments injured in pedestrian accidents: the anterior cruciate ligament and the medial collateral ligament. Then, we have evaluated and validated this new model on concrete applications to check its adaptability to an industrial environment
APA, Harvard, Vancouver, ISO, and other styles
29

Narjisse, Mohamed Zaki. "Étude d'un simulateur de machines parallèles avec intégration d'un outil d'aide au développement." Compiègne, 1988. http://www.theses.fr/1988COMPD139.

Full text
Abstract:
Réalisation du simulateur coprocesseur pour mieux connaitre les performances et les limites d'une structure multiprocesseur, à base de liens séries, et pour mieux aborder les problèmes posés par l'architecture parallèle sur les plans matériels et logiciels. Développement du système ESPION évaluant en temps réel les paramètres de performance et mettant en évidence les points critiques de l'architecture matérielle réalisée.
APA, Harvard, Vancouver, ISO, and other styles
30

Charland, François. "Développement d'un outil de support pour l'évaluation de la qualité des applications Web." Thèse, Université du Québec à Trois-Rivières, 2007. http://depot-e.uqtr.ca/1307/1/030024842.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Saucier, Marie Annie. "Développement d'un outil de simulation par Monte Carlo du rayonnement diffusé en tomodensitométrie." Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/31391.

Full text
Abstract:
L’objectif de ce projet est de créer un programme logiciel permettant de corriger le rayonnement diffusé dans une acquisition tomodensitométrique à géométrie conique. Pour ce faire, une simulation Monte Carlo est utilisée pour estimer le rayonnement diffusé, ce qui consiste à reproduire numériquement un examen en tomodensitométrie. Ce projet a été divisé en deux sections : la validation de la physique pour ce programme spécifique et le développement logiciel du programme. La validation consistait à reproduire les résultats obtenus avec Geant4 avec GPUMCD. Geant4, la plateforme de référence, et GPUMCD, la plateforme à l’étude, sont deux librairies logicielles pour la simulation numérique du transport de particules à travers la matière utilisant les calculs Monte Carlo. Les éléments étudiés sont les sections efficaces, les matériaux, l’algorithme de diffusion Rayleigh et l’algorithme de diffusion Compton. Bien que quelques erreurs persistent dans la physique de GPUMCD, une nette amélioration des résultats entre GPUMCD et Geant4 a été obtenue. La différence entre les deux simulations qui était supérieure à 100% pour une géométrie complexe est passée sous la barre du 10%. De plus, il a été possible d’identifier quelques autres causes telles qu’une différence dans la définition des modèles physiques, et ce, plus précisément dans l’algorithme de diffusion Compton. En ce qui concerne la seconde partie du projet, bien que la correction n’a pu être effectuée pour une reconstruction, tous les éléments ont été implémentés pour estimer le rayonnement diffusé pour une géométrie de patient provenant de données cliniques d’une reconstruction tomodensitométrique. Les paramètres et les stratégies étudiés dans le but d’optimiser le temps de calculs tout en conservant la justesse des résultats sont : le traçage de rayons, le lissage gaussien du rayonnement diffusé, la réduction du nombre de pixels sur le détecteur, l’interpolation des projections, la symétrie et la réduction de nombre de voxels dans le patient. De plus, en considérant une correction de haute qualité, soit 2% d’erreur et moins par stratégie implémentée, on obtient un temps de simulation de moins de 2 minutes sur une GPU Nvidia Titan X. Pour une simulation dite de basse qualité, soit 5% d’erreur et moins par stratégie implémentée, on obtient un temps d’exécution de moins de 15 s par simulation. Cela correspond à des temps cliniquement acceptables si le patient doit attendre sur la table.<br>The goal of this project is to develop an application to correct the scattered radiation in a cone beam computed tomography scan (CBCT). A Monte Carlo simulation is used to estimate the scattered radiation which is a numerical replication of a CBCT acquisition. This project has been divided into two sections : the validation of the physics for this specific application and the development of the application. The validation consisted in reproducing the results obtained with Geant4 in GPUMCD. Geant4 is the reference platform and GPUMCD is the platform studied. Both are Monte Carlo simulators of the passage of particles through matter.The elements studied are the cross sections, the materials, the Rayleigh scattering algorithm and the Compton scattering algorithm. Although some errors are still present, a great improvement of the results between GPUMCD and Geant4 was obtained. The difference between the two simulations was greater than 100 % for complex geometries and dropped below 10% after corrections of the physics. In addition, it was possible to identify some other problems such as a theoretical difference in the Compton scattering algorithms. Regarding the second part of the project, although the correction could not be implemented in a reconstruction, all elements are present to estimate the scattered radiation for an actual CBCT reconstruction. The parameters and strategies studied in order to optimize the computation time while maintaining the accuracy of the results are : ray tracing, Gaussian smoothing of scattered radiation, reduction of the number of pixels on the detector, interpolation of between the simulated projections, symmetry and reduction of number of voxels in the patient. In addition, considering a correction of high quality is 2 % error and less per implemented strategy, a simulation time of less than 2 minutes is obtained. For a low quality simulation (5% error and less per parameter), a simulation time of less than 15 seconds per simulation was obtained. Those are clinically acceptable simulation times.
APA, Harvard, Vancouver, ISO, and other styles
32

Fortin, Matthew. "Qu'est-ce que la culture de l'intelligence d'affaires? développement d'un outil de mesure." Mémoire, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/5481.

Full text
Abstract:
Dans l'économie du savoir globale [i.e. global], l'information est un actif corporatif dont les organisations doivent profiter pour créer de la valeur. Dans cette optique, l'intelligence d'affaires est un ensemble de stratégie et de processus qui permet à l'organisation de transformer ses données internes et externes en de l'information de gestion utile à la prise de décision et à la découverte de nouvelles opportunités. L'intelligence d'affaires est un domaine émergent, et est le sujet de nombreuses recherches scientifiques, ouvrages et articles professionnels au cours des dernières années. Les chercheurs et les professionnels s'intéressent aux facteurs critiques de succès non techniques de l'intelligence d'affaires. Parmi ceux-ci figure la culture organisationnelle propice à l'intelligence d'affaires. La culture du BI n'a, jusqu'à ce jour, jamais été étudiée. Les chercheurs et les praticiens la mentionnent sans équivoque, mais personne n'a jusqu'à ce jour tenté de la définir. Notre recherche a pour premier objectif de développer une définition du construit de culture BI. Pour ce faire, nous avons réalisé une revue de la littérature extensive et avons développé un modèle conceptuel incluant tous les concepts ayant émergé de notre recherche. Le second objectif de cette recherche est de développer un outil de mesure du construit. Nous avons donc développé des items de questionnaires correspondant à chacun des concepts de notre modèle. Nous avons ensuite réalisé trois activités de recherche pour le valider : une activité de classification des items, une révision par un expert (validité apparente) et une étude pilote auprès de professionnels sur le terrain. Le fruit de cette recherche est un questionnaire permettant d'évaluer la culture BI dans un contexte organisationnel.
APA, Harvard, Vancouver, ISO, and other styles
33

Herbreteau, Kevin. "Développement d’un outil physique orienté conception pour la simulation des excursions de puissance non protégée dans un RNR-Na." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAI051/document.

Full text
Abstract:
Ce travail de thèse se place dans le contexte des études d’accidents graves sur les réacteurs à neutrons rapides à caloporteur sodium. Dans le cadre de la démarche de conception et de sûreté, tous les types d’accidents doivent être étudiés afin d’assurer l’exhaustivité de l’analyse de sûreté, en traitant la variabilité des scénarios accidentels et en quantifiant les marges de sûreté. Pour cela, des outils physiques sont développés pour être couplés à des techniques avancées de statistique permettant de répondre rapidement et quantitativement aux questions relatives à la conception du réacteur vis-à-vis des conséquences d’un accident grave et de prendre en compte des incertitudes et de la variabilité des scénarios accidentels. La mise au point de l’outil physique OCARINa (Outil de Calcul analytique Rapide pour les Insertions de réactivité dans un RNR-Na) dédié à la phase primaire du transitoire d’insertion de réactivité non protégée UTOP (Unprotected Transient OverPower) a ainsi fait l’objet de cette thèse. Les travaux ont porté sur l’identification des phénomènes physiques prépondérants, leur modélisation (thermique et thermomécanique), et une contribution à la validation expérimentale et numérique. Enfin, une application de l’intérêt de cet outil a été réalisée à partir de deux études BEPU (Best-Estimate Plus Uncertainties). Elle a permis d’identifier les paramètres les plus influents sur la réponse de l’outil, et de quantifier leur impact vis-à-vis des résultats expérimentaux<br>Within the framework of the Generation IV Sodium-cooled Fast Reactor R&amp;D French program, a new physico-statistical approach is currently followed by the CEA for accident transient calculations in complement to the reference mechanistic codes. This approach involves a fast-running description of extended accident sequences coupling physical models for the main phenomena to advanced statistical analysis techniques. A large number of simulations may be performed in a reasonable computational time while describing all the possible bifurcations of the accident transient. In this context, this PhD work deals with the development (models and results assessment) of the physical tool dedicated to the primary phase of the Unprotected Transient OverPower accident called OCARINa (Outil de Calcul analytique Rapide pour les Insertions de réactivité dans un RNR-Na). The accident main phenomena, their modelling (thermal and thermomechanical models) and a contribution to the experimental and numerical validation are described. Finally a demonstration of BEPU studies has been done, resulting in the identification and the impact quantification of the more influent uncertain parameters on experimental results
APA, Harvard, Vancouver, ISO, and other styles
34

Kengue, Mayamou Pascal. "La microfinance en Tunisie et en Egypte : un outil au service du développement local." Thesis, Rennes 2, 2012. http://www.theses.fr/2012REN20012/document.

Full text
Abstract:
La microfinance en Egypte comme en Tunisie répond depuis plusieurs décennies à un besoin permanent des populations qui sont exclues du système financier formel. Ces populations n’ont d’autres sources de financement que celles mises à disposition par les institutions de microfinance. Ces financements sont majoritairement axés sur le microcrédit, l’épargne, et les produits d’assurance. Notre recherche interroge l’influence et la capacité que la microfinance exerce dans les deux pays notamment pour leur participation à un autre mode de développement, local et socialement soutenable. Pour répondre à ces interrogations nous avons adopté une méthodologie mixte (recherche documentaire, interviews et enquêtes par questionnaires).Cette méthodologie a permis de mieux éclairer le problème de la microfinance à travers une typologie des institutions impliquées et de la capacité de ces institutions à faire face à la demande des populations dans les zones périurbaines et rurales de la Tunisie et de l’Egypte. Notre principale contribution théorique est de mettre en évidence que cet ensemble d’éléments constitutifs permet une analyse de l’impact de la microfinance sur le développement dans ces deux pays. Dans quelle mesure a-t-elle permis à la population de sortir de la pauvreté, quelle est sa place dans le développement local notamment dans les zones rurales et dans la périphérie des grandes villes du Caire et de Tunis ? Telles sont les principales questions que nous avons pu traiter<br>Microfinance in Egypt and in Tunisia as well has been given for decades an answer to the permanent need from populations that are excluded from the formal banking system. These populations have no other sources of finance than that of microfinance. These funds are mainly, microcredit, savings and insurance. Our research questions the influence and the capacity that microfinance exerts upon both countries especially on their participation to another development mode, local and socially sustainable. To address these questions we adopted a hybrid methodology (in depth documentation, interviews and surveys with questionnaires).This method has permitted to shed a better light on the microfinance issue through a typology of microfinance institutions and through their ability to meet the demand from the populations of rural and suburban areas in Tunisia and Egypt. Our main theoretical contribution is to make it clear that this whole set of elements allows an analysis about the impact of microfinance on development. To what extent does it enable the people to escape from poverty, what is its place in the local development especially in the rural and suburban areas in the large cities like Tunis and Cairo ? Here are the main questions we could deal with
APA, Harvard, Vancouver, ISO, and other styles
35

Kengue, Mamayou Pascal. "La microfinance en Tunisie et en Egypte : un outil au service du développement local." Phd thesis, Université Rennes 2, 2012. http://tel.archives-ouvertes.fr/tel-00713847.

Full text
Abstract:
La microfinance en Egypte comme en Tunisie répond depuis plusieurs décennies à un besoin permanent des populations qui sont exclues du système financier formel. Ces populations n'ont d'autres sources de financement que celles mises à disposition par les institutions de microfinance. Ces financements sont majoritairement axés sur le microcrédit, l'épargne, et les produits d'assurance. Notre recherche interroge l'influence et la capacité que la microfinance exerce dans les deux pays notamment pour leur participation à un autre mode de développement, local et socialement soutenable. Pour répondre à ces interrogations nous avons adopté une méthodologie mixte (recherche documentaire, interviews et enquêtes par questionnaires).Cette méthodologie a permis de mieux éclairer le problème de la microfinance à travers une typologie des institutions impliquées et de la capacité de ces institutions à faire face à la demande des populations dans les zones périurbaines et rurales de la Tunisie et de l'Egypte. Notre principale contribution théorique est de mettre en évidence que cet ensemble d'éléments constitutifs permet une analyse de l'impact de la microfinance sur le développement dans ces deux pays. Dans quelle mesure a-t-elle permis à la population de sortir de la pauvreté, quelle est sa place dans le développement local notamment dans les zones rurales et dans la périphérie des grandes villes du Caire et de Tunis ? Telles sont les principales questions que nous avons pu traiter.
APA, Harvard, Vancouver, ISO, and other styles
36

Boudaouara, Ahmed. "Développement d'un outil de design pour les buses thermiques des moules à canaux chauds." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape8/PQDD_0019/MQ48838.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Bellefleur, Sonia. "Développement d'un outil de dénomination adapté à la population francophone nord-américaine : normes préliminaires." Master's thesis, Université Laval, 2001. http://hdl.handle.net/20.500.11794/42752.

Full text
Abstract:
"La présente étude vise à fournir des normes pour un outil de mesure des habiletés de dénomination, développé pour la population francophone de l’est nord-américain. Le développement de l’outil est basé sur un instrument américain déjà existant, le Boston Naming Test (version 60 images). Largement utilisé en clinique, cet instrument permet de recueillir différentes informations se rapportant au langage, notamment lors des évaluations en neuropsychologie et en orthophonie. L’échantillon se compose de gens âgés de 55 à 98 ans et présente un niveau de scolarité s’étendant de trois à 20 ans. Les résultats sont présentés sous forme de tableau de normes divisées par groupe d’âge et utilisent une méthode permettant de considérer la variable âge de façon continue et de tenir compte de l’effet plafond singularisant les performances. Une analyse des types d’erreur ainsi que de leur fréquence vient compléter les données quantitatives."
APA, Harvard, Vancouver, ISO, and other styles
38

Henzel, Norbert. "Développement d'un nouvel outil d'analyse spectrale et d'estimation des paramètres de signaux RMN 13C." Nancy 1, 1997. http://www.theses.fr/1997NAN10020.

Full text
Abstract:
Une nouvelle méthodologie d'analyse spectrale de signaux constitués de sinusoïdes amorties dans du bruit blanc ou coloré est présentée. Ce type de signaux (processus de type AR bruités, modélisables sous la forme d'un ARMA) se rencontre fréquemment, et en particulier en spectroscopie RMN. Premièrement, après présentation des bases de la RMN, le signal RMN est modélisé comme une somme d'exponentielles complexes amorties plus un bruit blanc. Ensuite, une comparaison des performances de quelques estimateurs spectraux reposant sur la séparation des sous-espaces signal et bruit, est présentée. Cette étude, effectuée en simulation et sur signaux réels, prend en compte l'influence des paramètres suivants : ordre, nombre d'observations, rapport signal sur bruit, nombre de composantes. Il en ressort que, quelque soit l'estimateur, l'amélioration de la résolution fréquentielle suppose une augmentation conjointe du nombre d'observations et de l'ordre. Pour des moyens informatiques courants et un temps de calcul raisonnable, la résolution est donc rapidement limitée, et reste insuffisante pour des signaux RMN de complexité moyenne. Les méthodes étudiées jusqu'ici reposent sur une approximation AR d'un ARMA. Une approche reposant sur l'estimation de la partie AR du processus ARMA, soit par une méthode de variable instrumentale, soit par l'approche Yule-Walker d'ordre élevé (YWOE) est alors étudiée. Les résultats des tests sur signaux réels montrent que ces méthodes permettent de diminuer le nombre de paramètres, par rapport aux méthodes précédents. Ceci permet d'augmenter les ordres et le nombre d'observations, sans toutefois permettre d'atteindre la résolution fréquentielle requise sur des signaux RMN complexes. Finalement, une méthodologie d'analyse en sous-bandes est présentée. L’utilisation de filtres rif nous permet d'assurer l'adéquation entre le modèle après filtrage/décimation et l'estimateur (YWOE). Les principaux avantages d'une analyse en sous-bandes, (augmentation de la résolution, possibilité de diminuer les ordres, augmentation de la précision), sont confirmés en simulation. L’efficacité de cette approche sur des signaux RMN de forte complexité est illustrée
APA, Harvard, Vancouver, ISO, and other styles
39

Omrani, Hichem. "Développement d'une méthode et d'un outil d'aide à l'évaluation : application à la mobilité urbaine." Compiègne, 2007. http://www.theses.fr/2007COMP1717.

Full text
Abstract:
Ces travaux portent sur l'évaluation des projets de transport à partir d'un ensemble de critères ayant des degrés d'importance différents, en interaction, évalués par des sources d'information hétérogènes (experts, enquêtes, capteurs, modèles etc. ). Les données collectées sont généralement entachées d'incertitude, d'imprécision et d'incomplétude. Pour résoudre ce problème d'évaluation des projets de transport, nous proposons une approche hybride baptisée HA4IA. Elle est basée sur la théorie de l'analyse multicritères, la logique floue et la théorie des croyances. Ces cadres théoriques présentent un cadre propice pour la gestion des données imprécises et incertaines. Nous proposons aussi un outil orienté web (DeSSIA), basé sur l'approche proposée. L'approche a été appliquée pour plusieurs projets de transport implémentés (à La Rochelle - France) dans le cadre d'un projet européen (SUCCESS / programme CIVITAS). L'outil développé est basé sur un environnement informatique open source (R, PHP, Mapserver, Mapscript, Jpgraph, XHTML, Ajax etc. ). Il permet d'évaluer divers impacts liés à la mobilité urbaine. Les résultats d'évaluation peuvent être représentés sous forme de graphes (à l'aide des techniques de représentation graphique) ou de cartes (trafic, pollution, acoustique). La cartographie permet de représenter la répartition spatio-temporelle des impacts présentant un outil supplémentaire d'aide à l'évaluation géospatiale. Tout au long du développement de cet outil, une attention particulière a été accordée à l'identification et aux réponses apportées aux attentes de potentiels utilisateurs: services de transports urbains, spécialistes en aménagement du territoire, socio-économistes ou écologistes<br>These works problem consists in evaluating projects of transport starting from a set of criteria having different degrees of importance, in interaction and evaluated by heterogeneous sources of information (experts, surveys, sensors, model etc). The collected data are generally sullied with uncertainty and inaccuracy. To solve this problem of projects evaluation related to transportation, we propose a hybrid approach entitled HA4IA (Hybrid Approach for Impacts Assessment). It is based on the theory of the multi criteria analysis, fuzzy logic and belief theory. These theoretical frameworks present a favourable framework for the management of the vague and uncertain data. We propose also a tool (DeSSIA), based on the proposed approach. The approach was applied for several projects of transport implemented (in La Rochelle - France) within the framework of a European project (SUCCESS under CIVITAS program). The developed tool is based on a data-processing environment open source (R, PHP, Mapserver, Mapscript, Jpgraph, XHTML, Ajax etc). It makes it possible to evaluate various impacts related to urban mobility. The results of evaluation can be represented in the form of graphs (using the techniques of chart) or of maps (traffic, pollution, acoustics). The cartography makes it possible to represent the space-time distribution of the impacts presenting an additional geo-space tool of evaluation aid
APA, Harvard, Vancouver, ISO, and other styles
40

Wieder, Charlotte. "L'agilité en développement de produits nouveaux : proposition de concepts et d'un outil de diagnostic." Grenoble INPG, 2009. http://www.theses.fr/2009INPG0071.

Full text
Abstract:
Ce travail de recherche apporte une contribution en matière d’évaluation de l’agilité en DPN, dans le cas du développement d’une nouvelle offre de conseil. Il a été réalisé en partenariat avec PCO Innovation, de manière à compléter son expertise de conseil en PLM par une expertise sur la mise en œuvre d’une démarche d’innovation permanente auprès de ses clients. En s’appuyant sur le modèle RID et le paradigme d’innovation ouverte, il propose le modèle conceptuel d’agilité en DPN. Ce dernier permet de faciliter l’articulation entre les fonctions innovation (I) et développement (D) du modèle RID, de manière à poursuivre la conception innovante initiée par la fonction (I) au sein du processus de DPN, sans dégrader ses propres objectifs de performance. Il adresse également le challenge de valorisation interne et externe propre au paradigme d’innovation ouverte. L’intégration de ce modèle conceptuel dans un outil, permet de diagnostiquer les trois capacités requises pour obtenir un processus de DPN agile, à savoir la sélection, l’anticipation et la réaction, grâce à la maîtrise de quatre domaines de pratiques : management de la valorisation multiple, management de l’incertitude, management de la connaissance et apprentissage et management de la collaboration. Cette démarche de recherche-action au sein d’une cellule de R&amp;D amont à PCO Innovation, nous a permis de mener une analyse réflexive sur le rôle de la fonction (I) dans une entreprise de conseil. Nous proposons une analyse des différentes formes d’innovation possibles et des contributions d’une cellule R&amp;D à la construction de nouvelles offres de conseil ainsi qu’une définition des pré-requis d’une offre de conseil<br>This research work contributes to the NPD agility assessment, in the case of a new consulting offer development. It is performed in partnership with PCO Innovation, to complete its expertise on PLM consulting with an expertise on the implementation of an intensive innovation approach within its clients. Integrating the RID model and the open innovation paradigm, this research work suggests the conceptual model of NPD agility. It aims at facilitating the articulation between the functions innovation (I) and development (D) of the RID model, allowing to continue the innovative design initiated by the function (I) within the NPD process, without to disturb its performance objectives. It also addresses the challenge of internal and external valuations with the open innovation paradigm. This conceptual model is then integrated within a tool, to diagnose the NPD agility by evaluating three capabilities : selection, anticipation and reaction, thanks to the mastery of four agile practices areas : multiple valuation management, uncertainty management, knowledge and learning management and collaboration management. This research action approach within an upstream R&amp;D unit in PCO Innovation leads us to perform a reflexive analysis, regarding the role of the function (I) within a consulting firm. We suggest an analysis of the different possible forms of innovation and of the R&amp;D unit contribution to build new consulting offer and come up with the definition of a consulting offer prerequisites
APA, Harvard, Vancouver, ISO, and other styles
41

Le, Roy Isabelle. "Analyse des performances instrumentales d'un radar à antenne active : développement d'un outil de simulation." Toulouse, INPT, 1993. http://www.theses.fr/1993INPT156H.

Full text
Abstract:
L'avenement des antennes actives permet d'envisager une nouvelle generation d'instruments radar a synthese d'ouverture pour l'observation de la terre, dotes de nouveaux modes de fonctionnement. Cependant, un tel concept pose un probleme au niveau de l'evaluation des performances instrumentales du radar, en raison de la multiplicite (jusqu'a plusieurs milliers) des chaines de transmission emission et reception qui le composent. L'objet de ce travail est d'analyser les performances d'un tel instrument en termes de diagramme de rayonnement et de reponse impulsionnelle, en integrant la dimension statistique due aux dispersions inherentes au processus de fabrication des composants. Les limitations de l'approche analytique nous ont pousses a developper un outil de simulation. Une modelisation capable d'integrer au niveau instrument les caracteristiques des elements des chaines de transmission, en particulier des modules actifs emission/reception (technologie mmic), est proposee sur la base d'une analyse des resultats de mesures issue des developpements technologiques. Les differents modeles sont ensuite integres dans une architecture complete de distribution de signal reconfigurable permettant de traiter soit une antenne complete, soit une fraction, soit des cas de pannes. L'analyse developpee a partir des premieres simulations realisees dans le cadre d'avant-projet radar2000, confirme globalement la grande robustesse de l'antenne aux differentes erreurs de dispersions, de distorsions et d'imperfections de commande. Mais elle met aussi en evidence des parametres critiques dans la definition de l'instrument vis a vis de la faisabilite de certaines configurations de fonctionnement.
APA, Harvard, Vancouver, ISO, and other styles
42

Makni, Zaatar. "Contribution au développement d'un outil d'analyse multiphysique pour la conception et l'optimisation d'actionneurs électromagnétiques." Paris 11, 2006. http://www.theses.fr/2006PA112232.

Full text
Abstract:
Le travail de thèse porte sur le développement d’un outil logiciel pour la conception d’actionneurs électromagnétiques. L’outil est fondé sur une méthodologie hybride qui consiste à associer une approche analytique et une approche numérique. L’association des deux approches est mise en œuvre par le couplage d'un outil logiciel commercial (Pro@Design) d'aide à la conception des systèmes modélisables analytiquement à des codes de calcul éléments finis développés au Laboratoire de Génie Electrique de Paris (LGEP). L’approche analytique permet d’avoir une solution qui répond globalement aux spécifications d’un cahier des charges. La température et les dimensions des matériaux actifs sont calculés simultanément suivant un modèle de couplage fort électromagnétique – thermique mis en œuvre grâce aux expressions analytiques des lois constitutives des milieux qui explicitent l'interdépendance entre les phénomènes magnétique et thermique. L’approche numérique, offre une modélisation fine des phénomènes physiques en accédant aux variables locales et aux variations spatio-temporelles des différentes grandeurs. En intervenant, dans la démarche de conception proposée, en aval du calcul analytique, l'analyse numérique permet d'abord de valider la solution analytique et ensuite de compléter le dimensionnement. Enfin, la réponse de la structure mécanique de l'actionneur à l’excitation des forces magnétiques est déterminée par une analyse harmonique. Le problème magnéto-mécanique est résolu suivant un modèle de couplage faible permettant de profiter de la précision des calculs éléments finis sans pénaliser le temps de calcul<br>The present work concerns the development of a software tool for the design of electromagnetic actuators. The tool is based on a hybrid methodology associating analytical and numerical approaches. The association is carried out by coupling a commercial software tool (Pro@Desing) for analytical calculation, and a software under developement in the Laboratoire de Génie Electrique de Paris (LGEP) for numerical calculation using the Finite Element Method (FEM). The analytical approach uses a model which deals with global quantities and ensure an overall view of the behaviour of the coupled electromagnetic-thermal phenomena. It permits also to analyse the influence of the different geometrical parameters on the actuator outputs using an optimisation procedure. The temperature and dimensions of the different motor parts are calculated simultaneously. The strong coupled model is based on the materials constituve laws which make explicit the interdependence between electromagnetic and thermal phenomena. The numerical approach deals with local variables and informs about space-time variations of the various quantities. In the considered methodology, the numerical analysis is employed after the analytical one first to validate the analytical solution then to complete the design procedure. At last, the mechanical response of the actuator structure to the magnetic forces excitation is determined by a harmonic analysis. A weak coupled magneto-mechanical model based on the FEM is developed. It allows to benefit from the preciseness of finite element calculation without penalizing the calculation time
APA, Harvard, Vancouver, ISO, and other styles
43

Tercinet, Fabrice. "Méthodes arborescentes pour la résolution des problèmes d'ordonnancement, conception d'un outil d'aide au développement." Tours, 2004. http://www.theses.fr/2004TOUR4034.

Full text
Abstract:
Nous présentons dans ce document une étude sur les méthodes arborescentes pour la résolution de problèmes d'ordonnancement conduisant à une démarche globale pour l'aide au développement de PSE. Pour cela, nous avons réalisé une étude approfondie des méthodes arborescentes de la littérature telles que les PSE, mais également de méthodes approchées basées sur des arbres de recherche telles que les méthodes par faisceaux avec récupération, les méthodes à nombre limité de divergences ou encore les méthodes de type Branch-and-Greed. Cette étude nous a permis de montrer l'utilité d'une approche orientée objet pour la conception de nœuds de l'arborescence afin de les rendre réutilisables par la suite. Nos modèles objets de \noeud ont été réalisés à partir de l'étude de PSE remarquables de la littérature couvrant les principaux problèmes d'ordonnancement et les principaux schémas de séparation. Tout ce travail s'intègre à la plate-forme e-OCEA. Par ailleurs, nous avons étudié le problème P|ri,qi |Cmax plus précisément car il joue un rôle central dans la résolution de divers problèmes d'ordonnancement. Cette place privilégiée lui vaut l'attention de la communauté au travers de nombreux algorithmes comme par exemple des bornes supérieures, des bornes inférieures ou encore des tests de faisabilité appliqués à sa version décisionnelle. Nous avons alors proposé des nouveaux outils pour améliorer sa résolution, principalement basés sur l'amélioration de deux tests de faisabilité, l'introduction d'un nouveau schéma de séparation et la proposition de plusieurs méthodes approchées basées sur des parcours tronqués d'arborescence<br>We present in this PhD thesis a study on tree search based methods (TSM) for scheduling problems solving. It leads us to define global approach for the development helping of branch-and-bound algorithms. So, we have done an important study of TSM from the literature such that branch-and-bound algorithms, Recovering Beam Search methods, Limited Discrepancy Search methods or Branch-and-Greed algorithms. From this study, we have showed the need to have an object-oriented approach for the designing of tree nodes which are re-usable for future developments. So, we have identified from the literature a pool of interesting branch-and-bound methods for their branching rule and for the solved scheduling problem from which we have designed node object-oriented models. Moreover, this work is integrated in the e-OCEA project. However, we have studied more precisely the problem P|ri,qi |Cmax because it plays a central role in the solving of scheduling problems. This particular place has lead many researchers to develop algorithms to improve the exact solving of this problem such that upper bounds, lower bounds or satisfiability tests. So, we have developped new satisfiability tests based on energetic reasoning and max-flow formulation. We have also designed a new branching rule and several truncated branch-and-bounds methods
APA, Harvard, Vancouver, ISO, and other styles
44

Ksentini, Nesrine. "Contribution au développement d'un outil de synthèse analogique : application aux systèmes à courants commutés." Paris, ENST, 2007. http://www.theses.fr/2007ENST0033.

Full text
Abstract:
Dans le cadre de cette thèse, nous nous sommes intéressés au développement de nouvelles méthodologies pour intégrer une méthode de conception hiérarchique Top-Down dans un environnement de synthèse en utilisant VHDL-AMS. Les méthodes proposées sont appliquées pour la conception des systèmes utilisant la technique des courants commutés. Cette méthode résout le problème de temps de simulation et rend la caractérisation et l’optimisation des systèmes possibles. Nous avons développé une bibliothèque de modèles VHDL-AMS avec multi-abstractions de cellules mémoires à courants commutés dans l'environnement SIMPLORER. Les modèles développés sont génériques et automatiquement ajustables en fonction de la technologie utilisée. Ils ont été développés en appliquant le flot de conception Bottom-Up partant d'une description niveau transistor. A partir de cette bibliothèque, nous avons pu concevoir, simuler et caractériser les CAN conçus à base de modulateurs [Sigma, Delta] à courants commutés. En cherchant des méthodes d'optimisation pour l'intégrer dans notre flot de conception, nous avons abouti aux Algorithmes génétiques. La bibliothèque VHDL-AMS développée, l’algorithme d’optimisation implanté et les outils de caractérisation nous ont conduit à concevoir un outil de synthèse analogique. Cet outil nous permet de traduire les spécifications des convertisseurs A/N à courants commutés à concevoir en une description VHDL-AMS optimisée. L'outil de synthèse ainsi obtenu nous permet finalement de concevoir des prototypes virtuels permettant une caractérisation complète de ces systèmes, sans passer par l'étape de fabrication de prototypes réels<br>Throughout this thesis, we have been working on developing new methodologies to integrate a Top-Down hierarchical method of design in a VHDL-AMS synthesis environment. This proposed method is applied when designing systems using Switched-Current technique. This method solves excessive simulation runtime problems and facilitates characterization and optimization of SI systems. We have developed a VHDL-AMS multi-abstraction model library of Switched-Current memory cells in the environment of SIMPLORER. The developed models are generic and automatically adjustable depending on used technology. They were created by applying the Bottom-Up design flow based on the level of transistor description. From this library, we could design, simulate and characterize ADC developed based on SI [Sigma, Delta] modulators. We ended up using genetic Algorithms after several searches on the appropriate integration method to use in our design flow. The developed VHDL-AMS library, the embedded optimization algorithm and the characterization tools led us to design Analogue-Synthesis Tool. This tool enables us to translate specifications of SI based ADC into an optimized VHDL-AMS description. The obtained synthesis tool will help us finally design virtual prototypes allowing a complete characterization of SI based systems, without going through manufacturing stages
APA, Harvard, Vancouver, ISO, and other styles
45

Taufik, Atik. "Contribution au développement d'un outil de conception des poutres composites : application aux pales d'hélicoptères." Toulouse, ENSAE, 1996. http://www.theses.fr/1996ESAE0017.

Full text
Abstract:
Ce travail porte sur l'analyse de poutres composites à section complexe. Dans une première partie, l'étude est limitée aux matériaux anisotropes dont un axe d'orthotropie est parallèle à l'axe longitudinal de la poutre. La méthode utilisée est basée sur le principe des travaux virtuels. Le code réalisé à partir de cette théorie permet de calculer toutes les grandeurs caractéristiques d'une section droite. L'étude est complétée par une analyse des problèmes relatifs à la torsion à gauchissement gêné et au couplage torsion-effort normal. La méthode est étendue aux poutres dont l'orientation des axes d'orthotropie des matériaux est quelconque. Ceci est réalisé en utilisant une formumation unifiée du vecteur déplacement et en appliquant le principe des travaux virtuels. Le code de calcul basé sur cette théorie a été développé et il permet de déterminer tous les termes de couplage. Dans la dernière partie, une méthode et un programme sont réalisés pour optimiser la forme d'une section droite pour une masse minimale et avec des contraintes imposées. Ceci est rendu possible grâce au mailleur paramétré développé.
APA, Harvard, Vancouver, ISO, and other styles
46

Brouard, François. "Développement d'un outil diagnostique des pratiques existantes de la veille stratégique auprès des PME." Thèse, Université du Québec à Trois-Rivières, 2004. http://depot-e.uqtr.ca/1309/1/000116305.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Saint-Victor, Thierry. "Développement d'un outil informatique pour l'équilibrage de ligne dans le contexte de production mixte." Thèse, Université du Québec à Trois-Rivières, 2008. http://depot-e.uqtr.ca/1310/1/030098441.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Tertrais, Hermine. "Développement d’un outil de simulation pour le chauffage de matériaux composites par micro-ondes." Thesis, Ecole centrale de Nantes, 2018. http://www.theses.fr/2018ECDN0061/document.

Full text
Abstract:
Le travail présenté dans cette thèse s’inscrit dans le contexte du développement de nouveaux procédés pour la mise en forme de matériaux composites pour répondre aux contraintes industrielles de gain de temps et d’énergie. Le procédé de chauffage par micro-onde reposant sur un principe de chauffage volumique permet de garantir ces avantages. L’inconvénient majeur est que le comportement du champ électrique lors de l’interaction entre matériaux composites et micro-ondes est peu connu. L’objectif de cette thèse est donc de proposer des solutions numériques pour approfondir la connaissance du procédé et la physique associée afin de mettre en avant ses capacités quant à un développement industriel. Pour ce faire, le travail réalisé est axé autour de trois verrous. En premier lieu, une nouvelle méthode numérique est proposée afin de résoudre les équations de Maxwell en 3D dans un stratifié composite. Prendre en compte le comportement 3D est essentiel afin de décrire avec précision l’impact des différentes couches du matériau et de leur épaisseur sur la propagation du champ électrique. Dans un second temps, la simulation électromagnétique est couplée à une résolution thermique afin de simuler le procédé de chauffage d’une pièce composite. Différents paramètres du procédé sont étudiés afin de mettre en avant les plus sensibles pour l’utilisation du chauffage micro-onde pour les matériaux composites. Enfin, l’attention du lecteur est portée sur le développement d’une méthode de simulation pour un contrôle en temps réel du procédé en comparaison avec des essais expérimentaux<br>The context of the present work is the development of new processes for the heating and forming of composite materials in order to provide an answer to the industrials needs for less energy and less time-consuming processes. In that sense, microwave heating is perfect match as it relies on volumetric heating. The major drawback is that the behaviour of the electric field while interacting with composite material is poorly known. Therefore, the main objective of this thesis is to provide numerical solutions to go more deeply in the understanding of such process and put forward its capabilities for an industrial development.To fulfil this objective, the work is oriented over three main axes. First, an innovative simulation tool is presented in order to solve the Maxwell’s equations in a thin multi layered domain. Taking into account the 3D behaviour of the electric field is a major issue in order to describe precisely the impact of the different plies of the laminate on the propagation of the electric field.Then, the electromagnetic simulation is coupled with a thermal simulation in order to simulate the full heating process of a composite part. Parameters of the process are investigated to bring forward the most crucialones. Finally, real-time control of the process is tackled using a model order reduction simulation technique. These results are compared to experimental work on two sets of samples
APA, Harvard, Vancouver, ISO, and other styles
49

Levesque, Sébastien. "Développement d'un outil génétique pour Brevibacterium aurantiacum et analyse génomique comparative de souches laitières." Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/34492.

Full text
Abstract:
Brevibacterium aurantiacum est une actinobactérie qui confère des propriétés organoleptiques clés aux fromages à croûte lavée lors de l’affinage. Malgré son importance industrielle, il n’existe aucun outil génétique disponible pour la modification génétique de cette espèce et seulement deux génomes complets sont disponibles à l’heure actuelle. L’acquisition de connaissances fondamentales sur le répertoire des gènes de cette espèce et sur leurs fonctions est primordiale pour comprendre son rôle dans l’affinage des fromages à croûte lavée. Lors de ce projet de maîtrise, 12 plasmides et quatre vecteurs synthétiques ont été utilisés pour transformer six souches laitières de B. aurantiacum et une souche de B. linens dans le but d’adapter l’outil génétique CRISPR-Cas9 pour ces actinobactéries. Différents protocoles de préparation de cellules électrocompétentes et de transformation par électroporation ont été testés, mais il a été impossible de transformer les souches bactériennes à l’étude. Les actinobactéries du genre Brevibacterium sont donc récalcitrantes à la transformation génétique Dans un second temps, nous avons séquencé six génomes additionnels de Brevibacterium et nous avons effectué des analyses génomiques comparatives avec les génomes publics. Nos analyses phylogénétiques ont révélé que les souches laitières précédemment considérées comme membres de l’espèce B. linens appartiennent en fait à l’espèce B. aurantiacum, mettant en évidence l’importance de cette espèce dans la production fromagère. Les génomes de B. aurantiacum sont composés de 2612 gènes de coeur et possèdent un pangénome ouvert atteignant jusqu’à 6259 gènes. Les génomes étudiés sont riches en éléments d’ADN mobiles et des transferts horizontaux de gènes (HGT) entre diverses actinobactéries d’affinage des fromages ont été observés chez tous les génomes de B. aurantiacum. Nos analyses génomiques comparatives apportent de nouvelles informations sur l’évolution et l’adaptation de B. aurantiacum à l’écosystème des fromages.<br>Brevibacterium aurantiacum is an orange-pigmented actinobacterium that confers key organoleptic properties to washed-rind cheeses during surface ripening. To date, only two complete and assembled genomes of B. aurantiacum are available and there is currently no genetic tool available to study this industrially relevant species. The acquisition of fundamental knowledge on the gene repertoire of this species and their functions is essential to understand its evolution and its role in cheese ripening In this study, 12 plasmids and 4 synthetic vectors were used to transform 6 B. aurantiacum dairy strains and one B. linens strain in the aim of adapting CRISPR-Cas9 tool for these bacterial species. Different electrocompetent cell preparation and electroporation methods were tested to transform various Brevibacterium strains, but no transformants were recovered with all the experiments. Therefore, it seems that Brevibacterium strains are recalcitrant to genetic transformation We sequenced six additional genomes of Brevibacterium and performed phylogenetic and pan-genome analyses. Our phylogenetic analysis revealed that cheese isolates, previously identified as B. linens, belong to the B. aurantiacum species, making this species a key player in cheese production. B. aurantiacum genomes are composed of 2612 core genes with an open pan-genome reaching now 6259 genes. Horizontal gene transfers (HGT) between cheese actinobacteria were observed in all B. aurantiacum genomes. HGT regions involved in iron acquisition were found in five B. aurantiacum genomes, which suggests cooperative evolution between smear-ripened cheese actinobacteria. Our comparative genomic analysis provides novel insights into the evolution and the adaptation of B. aurantiacum to the cheese ecosystem.
APA, Harvard, Vancouver, ISO, and other styles
50

Pillet, Flavien. "Développement d'un outil d'analyse d'interactions moléculaires basé sur la résonance plasmonique de surface (SPRi)." Thesis, Toulouse, INSA, 2010. http://www.theses.fr/2010ISAT0029/document.

Full text
Abstract:
Ces dernières décennies, on a assisté à l’augmentation du nombre de technologies et de concepts permettant l’analyse des interactions intermoléculaires. Dans ce contexte, les puces à fluorescence restent les plus fréquemment utilisées. Cependant, cette technologie bien que très sensible et multiplexée, ne permet pas d’avoir accès aux paramètres cinétiques, indispensables au calcul des constantes d’affinité et la recherche de systèmes alternatifs s’impose. Dans cette optique, la résonance plasmonique de surface par imagerie (SPRi) est considérée comme une véritable option. Cette technologie se caractérise par l’absence de marquage et permet de suivre en temps réel d’infimes variations de masses consécutives à des interactions intermoléculaires sur la surface du prisme. L’obtention de constantes d’affinité est ainsi possible. En revanche, la SPRi présente un certain nombre de limites, principalement au niveau de la sensibilité et du multiplexage. Les objectifs de la thèse ont ainsi consisté à combler en partie ces différentes limites. La chimie de greffage basée sur l’utilisation d’oligonucléotides modifiés par un thiol a permis d’améliorer le multiplexage et de déposer plus de 1000 spots par cm² sur la surface d’or du prisme. Dans le même temps, la modification de la surface avec des colloïdes d’or et des dendrimères a permis pour des interactions ADN/ADN, d’atteindre une limite de détection de 2 nM (d’où un gain de 200%). En parallèle de ces travaux, diverses applications biologiques ont été effectuées. Une première étude a consisté à rechercher des ligands spécifiques des structures G-quadruplex des télomères. Une seconde étude s’est portée sur le complexe de partition bactérien. Par des études de criblage les bases impliquées dans l’interaction avec une protéine indispensable à la partition du plasmide F chez E.coli ont été identifiées. L’ensemble de ces travaux ont montré le fort potentiel de la SPRi et les applications potentielles qui en découlent sont nombreuses<br>During the last decades a large number of technologies have been developed to analyze intermolecular interactions. In this context, the fluorescence biochips remain the most frequently used. Although this technology is very sensitive and multiplexed, it does not allow access to the kinetic parameters, essential to the calculation of the constants of affinity. Therefore, the research for alternative systems is essential. In this way, the Surface Plasmon Resonance imaging (SPRi) is considered as an opportunity. It is an optical detection process that can occur when a polarized light hits a prism covered by a thin metal layer. Under certain conditions free electrons at the surface of the biochip absorb incident light photons and convert them into surface plasmon waves. Perturbations at the surface of the biochip, such as an interaction between probes immobilized on the chip and targets, induce a modification of resonance conditions which can be measured. It is a label free technology which allows intermolecular interactions in real time and gives access to the kinetics parameters. However, SPRi is limited in sensitivity and multiplexing. The objectives of my PhD were to circumvent these various limits. Thus, we validated the immobilization of DNA probes on gold surface using thiol-modified oligonucleotide probes. Deposition carried out on non-modified gold surface, does not require electrical stimulation and expensive specific robotic devices. The thiol modification of the probes was shown to be very stable at room temperature, contrary to pyrrole and diazonium probes that need to be prepared just prior to their spotting. We demonstrate that thiol-modified oligonucleotide probes spotted on a gold surface of the SPRi-prisms are very robust and reproducible. We also demonstrated that this simple chemistry is compatible with high density arrays fabrication bearing more than 1000 spots using a classical spotter. Furthermore, the modification of the prism surface with gold colloids and dendrimers allowed for DNA/DNA interactions, to reach a detection limit of 2 nM. In parallel of this work, various biological applications were carried out and validate our previous developments. A first study was to screen G-quadruplex specific ligands to inhibit telomerase activity. We demonstrated that SPRi technology is particularly well adapted to the screening of interaction of small molecules with DNA probes and is sensitive enough to permit distinction between interactions with different DNA structures. The second study was on the bacterial partition complex. We study the DNA binding requirement involved in SopB-sopC specific interactions and analysed at the nucleotide level the bases involved in the binding efficiency and essential for the partition All this PhD work improved the SPRi technology and demonstrated its great potential in biological applications
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!