Academic literature on the topic 'Optimisation de modèle de coûts'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Optimisation de modèle de coûts.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Optimisation de modèle de coûts"

1

Bayogo, Yapégué, Lassina Togola, and Ahmadou Halassi Dicko. "Optimisation d’un réseau de transport durable : le pré et le post acheminement des marchandises import-export du Mali." European Scientific Journal, ESJ 20, no. 31 (2024): 124. https://doi.org/10.19044/esj.2024.v20n31p124.

Full text
Abstract:
La continentalité du Mali fait que les produits importés et exportés ont un long parcours. L’objectif de l’étude est d’analyser la conception d’un réseau de transport en optimisant les flux et en tenant compte des impacts environnementaux. L’approche méthodologique s’est focalisée d’une part sur des recherches documentaires basées sur la lecture et l’analyse des ouvrages, des rapports d’activités, des articles scientifiques, des thèses de Doctorat et des sites Internet, d’autre part, des explorations de terrain faites avec un guide d’entretien auprès de 11 personnes. Cela a permis d’obtenir des résultats. Pour le choix des enquêtés, nous avons fait recours à la technique d’échantillonnage non probabiliste, notamment la méthode par choix raisonné. Pour l'analyse des données, nous avons fait le choix de l’analyse du contenu. Enfin, un modèle d’optimisation faisant apparaître les trois paramètres a été formulé et testé avec le logiciel LINGO 11.00. Les résultats obtenus indiquent qu’en minimisant les temps et les coûts des pré- et post- transports, nous pouvons considérablement réduire les effets des transports sur l’environnement. De même, des mesures de réduction des coûts de transport et des temps de parcours ont été proposées. La mise en œuvre des mesures proposées permet de réduire les coûts logistiques, de minimiser le temps de parcours des marchandises et d’atténuer aussi les effets du transport des marchandises sur l’environnement. The continental nature of Mali means that imported and exported products have a long journey. The objective of the study is to analyse the design of a transport network by optimising flows and taking into account environmental impacts. The methodological approach focused on the one hand on documentary research based on the reading and analysis of works, activity reports, scientific articles, Doctoral theses and websites, on the other hand Field explorations carried out with an interview guide with 11 people. This has led to results. For the choice of respondents, we used the non-probability sampling technique, in particular the purposive choice method. For the data analysis, we have chosen to analyze the content. Finally, an optimization model showing the three parameters was formulated and tested with LINGO 11.00 software. The results obtained indicate that by minimizing pre- and post-transport times and costs, we can significantly reduce the effects of transport on the environment. Likewise, measures to reduce transport costs and travel times have been proposed. Implementation of the proposed measures makes it possible to reduce logistics costs, minimize the travel time of goods and mitigate the effects of transport of goods on the environment.
APA, Harvard, Vancouver, ISO, and other styles
2

Bardin, Isabelle, Dominique Bonet, and Odile Chanut. "La logistique urbaine : déterminants et réflexions en cours en région PACA." Revue Française de Gestion Industrielle 29, no. 2 (2010): 93–104. http://dx.doi.org/10.53102/2010.29.02.627.

Full text
Abstract:
Dans un contexte global d'intensification des échanges entre régions, pays et continents, la logistique des grands flux a bénéficié d'innovations technologiques et organisationnelles assurant efficacité et efficience, conjuguant maîtrise des coûts et optimisation de la qualité de service. Si cette dynamique opère efficacement à l'échelle globale, il n'en va pas de même à l'échelle urbaine, plus particulièrement dans les centres-villes. En effet, la gestion des flux dans un environnement caractérisé par une forte densité démographique n'a pas encore véritablement trouvé son modèle d'organisation. Aujourd'hui, la logistique urbaine ou encore la gestion "du dernier kilomètre" constitue donc un enjeu sociopolitique et environnemental de premier plan. L'objectif de notre article est de dresser un état des lieux de cette question afin d'en apprécier l'acuité sur le moyen et le long terme. Dans une première partie, nous présentons le contexte socio-économique dans lequel s'inscrit cette problématique. Nous examinons ensuite dans une seconde partie en quoi la région PACA constitue un terrain particulièrement représentatif des enjeux de la logistique urbaine et les pistes de réflexion déjà engagées au sein de l'agglomération marseillaise.
APA, Harvard, Vancouver, ISO, and other styles
3

Fairise, Xavier. "Les coûts d’ajustement croisés et le cycle de productivité: évaluation dans un modèle de cycles réels." Recherches économiques de Louvain 61, no. 2 (1995): 181–216. http://dx.doi.org/10.1017/s0770451800029511.

Full text
Abstract:
RésuméDans le but d’analyser le cycle de productivité de l’emploi, cet article présente un modèle de cycles réels avec coûts d’ajustement croisés sur l’investissement et le travail. Le modèle est simulé et confronté aux faits stylisés du marché du travail. Nous évaluons plus particulièrement la capacité du modèle à reproduire un cycle de productivité de l’emploi. Nous montrons alors que l’amplitude du cycle de productivité ne dépend pas uniquement du poids des coûts d’ajustement de l’emploi, mais peut aussi résulter du degré de complémentarité, en termes de coûts d’ajustement, de l’embauche et de l’investissement. Au-delà de son explication du cycle de productivité, le modèle permet aussi de rendre compte de la dynamique de l’investissement et de l’emploi.
APA, Harvard, Vancouver, ISO, and other styles
4

Martineau, David. "Coûts d'échange, compétitivité et localisation." Revue économique 47, no. 3 (1996): 787–96. http://dx.doi.org/10.3917/reco.p1996.47n3.0787.

Full text
Abstract:
Résumé Dans cet article, nous proposons une analyse des ajustements dans le sec­teur textile-habillement suite à la levée de l'Accord Multi-Fibres (AMF), à partir d'un modèle de type gravitationnel. Sur la base d'un échantillon mondial agrégé couvrant 85 % des exportations de ce secteur, nous étudions plus particulière­ment les relocalisations de l'activité entre un groupe de régions « périphériques » asiatiques et les pays de l'OCDE. Nous analysons l'impact de la réduction des coûts d'échange induite par la libéralisation commerciale sur le modèle de locali­sation des activités textile-habillement. L'introduction de coûts d'échange bilaté­raux entraîne une différenciation de l'espace économique qui modère le rôle des avantages comparatifs dans l'approfondissement de la spécialisation des écono­mies domestiques.
APA, Harvard, Vancouver, ISO, and other styles
5

Diop, Sérigné. "Peut-on piloter la performance organisationnelle en l’absence de données sur les coûts ? Enquête exploratoire auprès des PME au Sénégal." Revue Management & Innovation N° 2, no. 2 (2020): 143–60. http://dx.doi.org/10.3917/rmi.202.0143.

Full text
Abstract:
La place qu’occupent les informations sur les coûts calculés dans le pilotage de la performance des petites et moyennes entreprises (PME) Ouest-africaines demeure un aspect très peu abordé par la recherche en sciences de gestion. C’est dans ce sens qu’une étude exploratoire a été conduite auprès des PME au Sénégal afin de mettre à la disposition des managers deux modèles complémentaires (dans le cas de l’organisation ambidextre) de pilotage de la performance organisationnelle : un modèle de performance prenant en compte les données sur les coûts et un modèle de performance faisant abstraction des données sur les coûts mais basé sur la qualité des produits (Q), la capacité d’innovation (I), le respect des délais (D), l’apprentissage organisationnel (AO) et la flexibilité des outils de gestion (F).
APA, Harvard, Vancouver, ISO, and other styles
6

Guellec, Dominique. "Externalités et asymétries d'information dans un modèle de croissance." Revue économique 46, no. 3 (1995): 837–46. http://dx.doi.org/10.3917/reco.p1995.46n3.0837.

Full text
Abstract:
Résumé La théorie de la croissance endogène souligne impact des extemalités sur la croissance économique Le taux de croissance associé équilibre concurrentiel est donc généralement sous-optimal Le théorème de Coase implique une telle situation ne peut se produire que si les coûts de transaction sont positifs Cet article présente un modèle où ces coûts sont introduits sous la forme une asy métrie information et où les agents sont liés par des interactions stratégiques Le problème de la coordination se ramène un dilemme du prisonnier répété inci tation pour les agents coopérer et donc internaliser les extemalités dépend du caractère répété de interaction du nombre de partenaires et du niveau des coûts de transaction Les arrangements institutionnels qui déterminent ces variables influent donc sur le taux de croissance des économies et peuvent expliquer la diversité internationale constatée
APA, Harvard, Vancouver, ISO, and other styles
7

Le, Jacques, and Marie-Françoise Calmette. "Localisation des activités : un modèle bisectoriel avec coûts de transport." Revue économique 46, no. 3 (1995): 901–9. http://dx.doi.org/10.3917/reco.p1995.46n3.0901.

Full text
Abstract:
Résumé Selon P. Krugman , dans une économie où coexistent deux secteurs, l'un en concurrence monopolistique, l'autre en concurrence parfaite, la réduction des coûts de transport des biens du premier secteur favorise la concentration géogra­phique des activités. Nous montrons que, s'il y a un coût de transport positif pour les biens du deuxième secteur, cette tendance à la concentration disparaît pour de fortes réductions des coûts de transport dans le premier secteur. Mais les enjeux portent aussi, alors, sur l'évolution du bien-être relatif des agents.
APA, Harvard, Vancouver, ISO, and other styles
8

Chatelain, Jean-Bernard. "Investissement irréversible, taux d’utilisation des capacités et coûts de faillite." Recherches économiques de Louvain 61, no. 2 (1995): 217–41. http://dx.doi.org/10.1017/s0770451800029523.

Full text
Abstract:
RésuméCe modèle étudie les effets joints de l’irréversibilité et des coûts de faillite sur la décision d’investissement. Les coûts de faillite supportés par le prêteur accentuent son conflit d’intérêt avec l’emprunteur: il est principalement concerné par la partie basse de la distribution du risque, alors que l’emprunteur est concerné par la partie restante. On établit l’existence d’un optimum du second ordre, où l’investissement dépend non seulement de la profitabilité et de l’espérance de la demande mais aussi de la richesse ou des fonds propres de l’entreprise. Le taux d’utilisation des capacités de production optimal diminue en présence de coûts de faillite. Le coût du capital est alors plus élevé puisqu’il inclue les coûts de faillite.
APA, Harvard, Vancouver, ISO, and other styles
9

El Haddad, Pierre. "Les coûts cachés comme levier de transformation dans une ONG : étude exploratoire." ACCRA N° 19, no. 1 (2024): 95–117. http://dx.doi.org/10.3917/accra.019.0095.

Full text
Abstract:
Une recherche-intervention a été proposée pour aider une organisation non gouvernementale notoire à faire face à ses défis de transformation en entreprise sociale pour assurer sa survie. Cette transformation intervient en période de transmission entre les fondateurs et un dirigeant de transition qui peine à faire adhérer les acteurs au processus. La méthodologie adoptée est celle d’une recherche-intervention axée sur l’approche des coûts-potentiels cachés. Les résultats de la recherche suggèrent que l’approche par les coûts-potentiels cachés représente un levier d’engagement en accord avec la théorie socio-économique du management. La recherche propose également un modèle de transformation amorcée par les coûts cachés.
APA, Harvard, Vancouver, ISO, and other styles
10

Salgado, Diana Patricia, María Rita Otero, and Verónica Parra. "Research and study paths at the university: a praxeological model of reference related to costs calculationParcours de recherche et d'études à l'université: un modèle praxéologique de référence lié au calcul des coûts." Educação Matemática Pesquisa : Revista do Programa de Estudos Pós-Graduados em Educação Matemática 22, no. 4 (2020): 563–78. http://dx.doi.org/10.23925/1983-3156.2020v22i4p563-578.

Full text
Abstract:
AbstractThis work fits within a wider research whose general objective is teaching mathematics to non-mathematicians at the university, taking central assumptions of the Anthropological Theory of Didactics. This work proposes a praxeological model of reference related to a micro-entrepreneurship costs calculation. The generative question How to calculate micro-entrepreneurship costs? links mathematical and economic praxeologies. This model allows to go through a part of the study programme of a university calculus course.Keywords: Anthropological theory of the didactic; Course of study and research; Praxeological Reference Model.RésuméCe travail fait partie d’une recherche plus large dont l’objectif général est l’enseignement des mathématiques pour non-mathématiciens à l’université dans le cadre de la Théorie Anthropologique du Didactique. On propose un modèle praxéologique de référence sur le calcul de coûts d’une micro-entreprise. La question génératrice est Comment calculer les coûts dans une micro-entreprise? Elle associe plusieurs organisations mathématiques et économiques. Ce modèle permet de couvrir une partie du programme d’études d’un cours de Calcul du niveau universitaire. Mots-clés : Théorie anthropologique de la didactique, Parcours d'étude et de recherche, Modèle de référence praxéologique.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Optimisation de modèle de coûts"

1

Fortin, Jean-Sébastien. "Optimisation des investissements sur les ponts par la méthode coûts-avantages : valorisation des revenus et du modèle de détérioration." Master's thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/28153.

Full text
Abstract:
Cette étude a pour but de contribuer à l’avancement des connaissances dans le domaine des systèmes de gestion de ponts (Bridge Management System (BMS)) par le développement d’un outil décisionnel pour optimiser les réparations sur les ponts. Cet outil décisionnel se base sur la valeur actualisée nette pour considérer le moment optimal de réparation. Il met ainsi à l’avant-plan la création de richesse permise par un réseau routier efficace. De plus, il permet d’étudier l’incertitude sur plusieurs variables, soit les valeurs financières d’inflation et d’actualisation, ainsi que l’évolution du débit routier. La flexibilité de l’outil décisionnel permet de vérifier l’impact de plusieurs variables. Ainsi, le modèle de détérioration présentement utilisée par le ministère des Transports, de la Mobilité durable et de l'Électrification des transports du Québec est comparé à deux autres modèles, soit un modèle markovien basé sur la théorie des chaînes de Markov et un modèle stochastique développé dans le cadre de cette étude. Le projet innove en considérant les revenus générés par un pont et l’incertitude sur les variables futures de détérioration d’éléments de ponts, d’inflation et d’actualisation, ainsi que celles relatives à l’évolution du débit routier. Considérant la récente implantation du système de gestion du ministère des Transports, de la Mobilité durable et de l'Électrification des transports, cette étude se base sur plusieurs hypothèses. Pour cette étude, la durée de vie maximale du pont est établie à 100 ans, la dégradation et la réparation d’un ouvrage est analysée aux 5 ans et une seule réparation majeure peut être effectuée sur la durée de vie. De plus, cette réparation permet de remettre le pont dans son état initial (neuf) et la détérioration de quelques éléments principaux (la dalle en béton armé et les poutres d’acier) du pont représente la détérioration globale de la structure. En se basant sur les données du ministère des Transports, de la Mobilité durable et de l'Électrification des transports et à l’aide d’une analyse probabiliste de 20 000 simulations, l’étude met en évidence l’importance de considérer la variabilité sur la détérioration d’un élément/pont, sur le taux d’intérêt et dans une moindre mesure, l’inflation. Ainsi, lorsque seul l’état de la dalle représente l’état global du pont et en utilisant l’approche déterministe, une réparation entre 25 et 30 ans est appropriée. Un taux d’intérêt plutôt faible peut même repousser ce choix à 35 ans. Le choix de date optimale de réparation est très étalé avec l’approche markovienne considérant les probabilités élevées de maintien du pont en bon état. Finalement, l’approche stochastique favorise une réparation entre 20 et 35 ans selon la rapidité de la détérioration. Ce choix peut encore une fois changer légèrement avec l’ajout de taux d’intérêt et d’inflation variables. Lorsque seul l’état de la dalle et des poutres est considéré représenter l’état de l’ensemble du pont, l’approche déterministe propose une réparation à 25 ans pour le dalle en béton armé et une réparation à 30 ans pour les poutres en acier. Les paramètres financiers stochastiques peuvent affecter ce choix rendant possible une réparation optimale de 25 à 35 ans pour les deux types d’éléments. Les moments optimaux de réparation sont très étalés pour l’approche markovienne considérant les probabilités élevées de maintien des éléments en bon état. Finalement, l’approche stochastique propose une réparation entre 20 et 35 ans pour le dalle en béton armé et entre 15 et 40 ans pour les poutres en acier. Ces moments de réparations sont aussi affectés légèrement par l’ajout d’un taux d’intérêt et d’inflation variables. Une analyse de sensibilité permet de considérer l’impact de plusieurs paramètres du modèle considéré, soit la matrice de transition, la pénalité d’état, la variabilité de la matrice pour une détérioration stochastique et l’ajout d’un avantage de réparation simultanée à deux éléments. Une modification de la matrice de transition a surtout un impact sur la volatilité des résultats, alors qu’une modification sur la pénalité d’état crée une translation sur la distribution du moment optimal de réparation pour une détérioration de type markovienne et stochastique. La variabilité de la matrice pour une détérioration stochastique a directement un impact sur la volatilité du moment optimal de réparation. Plus le pourcentage de variation de la matrice est faible, plus les moments optimaux de réparation seront concentrés (plage moins étendue). Finalement, s’il est considéré que la réparation simultanée de deux éléments coûte moins cher que lorsque ces deux éléments sont réparés à des dates différentes (avantage de réparation simultanée de deux éléments plutôt que deux réparations distinctes), il y alors un impact sur le moment optimal de réparation. Cet effet est principalement perceptible lorsque les dates de réparation optimales sont séparées de moins de 10 ans. Pour une détérioration déterministe, il suffit que la réparation simultanée coûte de 3,72% de moins que deux réparations distinctes pour favoriser de réparer les deux éléments simultanément à 30 ans, la dalle étant réparée à 25 ans sans avantage (réduction des coût) de réparation simultanée. Cependant, un avantage de réparation simultanée a peu d’impact sur le moment optimal de réparation lorsque la détérioration se base sur un modèle markovien en raison de la grande répartition des moments optimaux de réparation. Enfin, l’avantage de réparation simultanée a un impact considérable pour une détérioration stochastique, la majorité des réparations se produisant entre 15 et 40 ans.<br>This study extends the existing literature on Bridge Management Systems (BMS) by developing a decision-making program to optimize bridge rehabilitations. This decision-making tool analyses the net present value to consider the optimal moment to repair a bridge. It highlights wealth creation by the maintenance of an efficient road network. Moreover, it allows the study of uncertainty on several parameters, such as financial values of inflation and interest rates as well as the evolution of traffic flow. The ability of the decision-making tool to verify the impact of several variables and the deterioration model currently used by the ministère des Transports, de la Mobilité durable et de l'Électrification des transports is compared to two other models; a Markovian model and a stochastic model developed under this study. This project breaks new ground by considering the revenue generated by the bridge’s efficiency. It also considers uncertainty on several parameters, such as financial values of inflation and interest rate, and the evolution of traffic flow. Considering the recent establishment of the management system used by the ministère des Transports, de la Mobilité durable et de l'Électrification des transports, this study is based on several assumptions. The life span of the bridge is limited to 100 years, degradation and repairs can only be done every 5 years, a single repair can be made over the bridge lifespan and the bridge condition is represented by only a few bridge components (elements). The study highlights the importance of considering variability on the deterioration of an element/bridge, interest rates and, to a lesser extent, inflation based on the ministère des Transports, de la Mobilité durable et de l'Électrification des transports data and using a probabilistic analysis of 20,000 simulations. Thus, when the bridge is only represented by its reinforced concrete deck and using the deterministic deterioration approach, a repair between 25 and 30 years is appropriate. A rather low interest rate can even push this choice to 35 years. This choice is very broad with the Markovian approach considering the high probabilities of keeping the bridge in good condition. Finally, the stochastic approach favors repair between 20 and 35 years depending on the speed of deterioration. This choice may again change slightly with the addition of both a variable interest rate and a variable inflation rate. When a reinforced concrete deck and steel beams are considered to represent the entire bridge, the deterministic approach suggests a 25-year repair for the reinforced concrete deck and a 30-year repair for the steel beams. Stochastic financial parameters can affect this choice, making an optimal repair of 25 to 35 years possible for both elements. The optimal moments of repair are very spread out for the Markovian approach considering the high probabilities of maintaining the elements in good condition. Finally, the stochastic approach proposes a repair between 20 and 35 years for the reinforced concrete deck and between 15 and 40 years for the steel beams. These repairs are slightly affected by the addition of a variable interest rate and inflation rate as well. An in-depth analysis shows the impact that several parameters have on the model considered. These parameters include: the transition matrix, the state penalty, the variability of the matrix for stochastic deterioration, and the addition of a simultaneous repair advantage. A change in the transition matrix mainly has an impact on the volatility of the results, whereas a modification on the state penalty shifts the optimal repair time distribution for Markovian and stochastic deteriorations. The variability of the matrix for stochastic deterioration directly affects the volatility of the optimal repair time. For example, the lower the percentage of variation of the matrix, the more the optimal repair moments will be concentrated (or fixed). Finally, the implementation of a simultaneous repair benefit mainly has an impact when the optimal repair time is within 10 years of a simultaneous repair. For a deterministic deterioration, a reduction in costs of 3.72% is sufficient to reconcile repair dates to 30 years, the bridge being repair at 25 years without this benefit. However, this advantage has little impact on Markovian deterioration due to the wide distribution of optimal repair times but a considerable impact on stochastic deterioration, with the majority of repairs occurring within a range of 15 to 40 years.<br>Cette étude a pour but de contribuer à l’avancement des connaissances dans le domaine des systèmes de gestion de ponts (Bridge Management System (BMS)) par le développement d’un outil décisionnel pour optimiser les réparations sur les ponts. Cet outil décisionnel se base sur la valeur actualisée nette pour considérer le moment optimal de réparation. Il met ainsi à l’avant-plan la création de richesse permise par un réseau routier efficace. De plus, il permet d’étudier l’incertitude sur plusieurs variables, soit les valeurs financières d’inflation et d’actualisation, ainsi que l’évolution du débit routier. La flexibilité de l’outil décisionnel permet de vérifier l’impact de plusieurs variables. Ainsi, le modèle de détérioration présentement utilisée par le ministère des Transports, de la Mobilité durable et de l'Électrification des transports du Québec est comparé à deux autres modèles, soit un modèle markovien basé sur la théorie des chaînes de Markov et un modèle stochastique développé dans le cadre de cette étude. Le projet innove en considérant les revenus générés par un pont et l’incertitude sur les variables futures de détérioration d’éléments de ponts, d’inflation et d’actualisation, ainsi que celles relatives à l’évolution du débit routier. Considérant la récente implantation du système de gestion du ministère des Transports, de la Mobilité durable et de l'Électrification des transports, cette étude se base sur plusieurs hypothèses. Pour cette étude, la durée de vie maximale du pont est établie à 100 ans, la dégradation et la réparation d’un ouvrage est analysée aux 5 ans et une seule réparation majeure peut être effectuée sur la durée de vie. De plus, cette réparation permet de remettre le pont dans son état initial (neuf) et la détérioration de quelques éléments principaux (la dalle en béton armé et les poutres d’acier) du pont représente la détérioration globale de la structure. En se basant sur les données du ministère des Transports, de la Mobilité durable et de l'Électrification des transports et à l’aide d’une analyse probabiliste de 20 000 simulations, l’étude met en évidence l’importance de considérer la variabilité sur la détérioration d’un élément/pont, sur le taux d’intérêt et dans une moindre mesure, l’inflation. Ainsi, lorsque seul l’état de la dalle représente l’état global du pont et en utilisant l’approche déterministe, une réparation entre 25 et 30 ans est appropriée. Un taux d’intérêt plutôt faible peut même repousser ce choix à 35 ans. Le choix de date optimale de réparation est très étalé avec l’approche markovienne considérant les probabilités élevées de maintien du pont en bon état. Finalement, l’approche stochastique favorise une réparation entre 20 et 35 ans selon la rapidité de la détérioration. Ce choix peut encore une fois changer légèrement avec l’ajout de taux d’intérêt et d’inflation variables. Lorsque seul l’état de la dalle et des poutres est considéré représenter l’état de l’ensemble du pont, l’approche déterministe propose une réparation à 25 ans pour le dalle en béton armé et une réparation à 30 ans pour les poutres en acier. Les paramètres financiers stochastiques peuvent affecter ce choix rendant possible une réparation optimale de 25 à 35 ans pour les deux types d’éléments. Les moments optimaux de réparation sont très étalés pour l’approche markovienne considérant les probabilités élevées de maintien des éléments en bon état. Finalement, l’approche stochastique propose une réparation entre 20 et 35 ans pour le dalle en béton armé et entre 15 et 40 ans pour les poutres en acier. Ces moments de réparations sont aussi affectés légèrement par l’ajout d’un taux d’intérêt et d’inflation variables. Une analyse de sensibilité permet de considérer l’impact de plusieurs paramètres du modèle considéré, soit la matrice de transition, la pénalité d’état, la variabilité de la matrice pour une détérioration stochastique et l’ajout d’un avantage de réparation simultanée à deux éléments. Une modification de la matrice de transition a surtout un impact sur la volatilité des résultats, alors qu’une modification sur la pénalité d’état crée une translation sur la distribution du moment optimal de réparation pour une détérioration de type markovienne et stochastique. La variabilité de la matrice pour une détérioration stochastique a directement un impact sur la volatilité du moment optimal de réparation. Plus le pourcentage de variation de la matrice est faible, plus les moments optimaux de réparation seront concentrés (plage moins étendue). Finalement, s’il est considéré que la réparation simultanée de deux éléments coûte moins cher que lorsque ces deux éléments sont réparés à des dates différentes (avantage de réparation simultanée de deux éléments plutôt que deux réparations distinctes), il y alors un impact sur le moment optimal de réparation. Cet effet est principalement perceptible lorsque les dates de réparation optimales sont séparées de moins de 10 ans. Pour une détérioration déterministe, il suffit que la réparation simultanée coûte de 3,72% de moins que deux réparations distinctes pour favoriser de réparer les deux éléments simultanément à 30 ans, la dalle étant réparée à 25 ans sans avantage (réduction des coût) de réparation simultanée. Cependant, un avantage de réparation simultanée a peu d’impact sur le moment optimal de réparation lorsque la détérioration se base sur un modèle markovien en raison de la grande répartition des moments optimaux de réparation. Enfin, l’avantage de réparation simultanée a un impact considérable pour une détérioration stochastique, la majorité des réparations se produisant entre 15 et 40 ans.<br>Cette étude a pour but de contribuer à l’avancement des connaissances dans le domaine des systèmes de gestion de ponts (Bridge Management System (BMS)) par le développement d’un outil décisionnel pour optimiser les réparations sur les ponts. Cet outil décisionnel se base sur la valeur actualisée nette pour considérer le moment optimal de réparation. Il met ainsi à l’avant-plan la création de richesse permise par un réseau routier efficace. De plus, il permet d’étudier l’incertitude sur plusieurs variables, soit les valeurs financières d’inflation et d’actualisation, ainsi que l’évolution du débit routier. La flexibilité de l’outil décisionnel permet de vérifier l’impact de plusieurs variables. Ainsi, le modèle de détérioration présentement utilisée par le ministère des Transports, de la Mobilité durable et de l'Électrification des transports du Québec est comparé à deux autres modèles, soit un modèle markovien basé sur la théorie des chaînes de Markov et un modèle stochastique développé dans le cadre de cette étude. Le projet innove en considérant les revenus générés par un pont et l’incertitude sur les variables futures de détérioration d’éléments de ponts, d’inflation et d’actualisation, ainsi que celles relatives à l’évolution du débit routier. Considérant la récente implantation du système de gestion du ministère des Transports, de la Mobilité durable et de l'Électrification des transports, cette étude se base sur plusieurs hypothèses. Pour cette étude, la durée de vie maximale du pont est établie à 100 ans, la dégradation et la réparation d’un ouvrage est analysée aux 5 ans et une seule réparation majeure peut être effectuée sur la durée de vie. De plus, cette réparation permet de remettre le pont dans son état initial (neuf) et la détérioration de quelques éléments principaux (la dalle en béton armé et les poutres d’acier) du pont représente la détérioration globale de la structure. En se basant sur les données du ministère des Transports, de la Mobilité durable et de l'Électrification des transports et à l’aide d’une analyse probabiliste de 20 000 simulations, l’étude met en évidence l’importance de considérer la variabilité sur la détérioration d’un élément/pont, sur le taux d’intérêt et dans une moindre mesure, l’inflation. Ainsi, lorsque seul l’état de la dalle représente l’état global du pont et en utilisant l’approche déterministe, une réparation entre 25 et 30 ans est appropriée. Un taux d’intérêt plutôt faible peut même repousser ce choix à 35 ans. Le choix de date optimale de réparation est très étalé avec l’approche markovienne considérant les probabilités élevées de maintien du pont en bon état. Finalement, l’approche stochastique favorise une réparation entre 20 et 35 ans selon la rapidité de la détérioration. Ce choix peut encore une fois changer légèrement avec l’ajout de taux d’intérêt et d’inflation variables. Lorsque seul l’état de la dalle et des poutres est considéré représenter l’état de l’ensemble du pont, l’approche déterministe propose une réparation à 25 ans pour le dalle en béton armé et une réparation à 30 ans pour les poutres en acier. Les paramètres financiers stochastiques peuvent affecter ce choix rendant possible une réparation optimale de 25 à 35 ans pour les deux types d’éléments. Les moments optimaux de réparation sont très étalés pour l’approche markovienne considérant les probabilités élevées de maintien des éléments en bon état. Finalement, l’approche stochastique propose une réparation entre 20 et 35 ans pour le dalle en béton armé et entre 15 et 40 ans pour les poutres en acier. Ces moments de réparations sont aussi affectés légèrement par l’ajout d’un taux d’intérêt et d’inflation variables. Une analyse de sensibilité permet de considérer l’impact de plusieurs paramètres du modèle considéré, soit la matrice de transition, la pénalité d’état, la variabilité de la matrice pour une détérioration stochastique et l’ajout d’un avantage de réparation simultanée à deux éléments. Une modification de la matrice de transition a surtout un impact sur la volatilité des résultats, alors qu’une modification sur la pénalité d’état crée une translation sur la distribution du moment optimal de réparation pour une détérioration de type markovienne et stochastique. La variabilité de la matrice pour une détérioration stochastique a directement un impact sur la volatilité du moment optimal de réparation. Plus le pourcentage de variation de la matrice est faible, plus les moments optimaux de réparation seront concentrés (plage moins étendue). Finalement, s’il est considéré que la réparation simultanée de deux éléments coûte moins cher que lorsque ces deux éléments sont réparés à des dates différentes (avantage de réparation simultanée de deux éléments plutôt que deux réparations distinctes), il y alors un impact sur le moment optimal de réparation. Cet effet est principalement perceptible lorsque les dates de réparation optimales sont séparées de moins de 10 ans. Pour une détérioration déterministe, il suffit que la réparation simultanée coûte de 3,72% de moins que deux réparations distinctes pour favoriser de réparer les deux éléments simultanément à 30 ans, la dalle étant réparée à 25 ans sans avantage (réduction des coût) de réparation simultanée. Cependant, un avantage de réparation simultanée a peu d’impact sur le moment optimal de réparation lorsque la détérioration se base sur un modèle markovien en raison de la grande répartition des moments optimaux de réparation. Enfin, l’avantage de réparation simultanée a un impact considérable pour une détérioration stochastique, la majorité des réparations se produisant entre 15 et 40 ans.
APA, Harvard, Vancouver, ISO, and other styles
2

Moumen, Chiraz. "Une méthode d'optimisation hybride pour une évaluation robuste de requêtes." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30070/document.

Full text
Abstract:
La qualité d'un plan d'exécution engendré par un optimiseur de requêtes est fortement dépendante de la qualité des estimations produites par le modèle de coûts. Malheureusement, ces estimations sont souvent imprécises. De nombreux travaux ont été menés pour améliorer la précision des estimations. Cependant, obtenir des estimations précises reste très difficile car ceci nécessite une connaissance préalable et détaillée des propriétés des données et des caractéristiques de l'environnement d'exécution. Motivé par ce problème, deux approches principales de méthodes d'optimisation ont été proposées. Une première approche s'appuie sur des valeurs singulières d'estimations pour choisir un plan d'exécution optimal. A l'exécution, des statistiques sont collectées et comparées à celles estimées. En cas d'erreur d'estimation, une ré-optimisation est déclenchée pour le reste du plan. A chaque invocation, l'optimiseur associe des valeurs spécifiques aux paramètres nécessaires aux calculs des coûts. Cette approche peut ainsi induire plusieurs ré-optimisations d'un plan, engendrant ainsi de mauvaises performances. Dans l'objectif d'éviter cela, une approche alternative considère la possibilité d'erreurs d'estimation dès la phase d'optimisation. Ceci est modélisé par l'utilisation d'un ensemble de points d'estimations pour chaque paramètre présumé incertain. L'objectif est d'anticiper la réaction à une sous-optimalité éventuelle d'un plan d'exécution. Les méthodes dans cette approche cherchent à générer des plans robustes dans le sens où ils sont capables de fournir des performances acceptables et stables pour plusieurs conditions d'exécution. Ces méthodes supposent souvent qu'il est possible de trouver un plan robuste pour l'ensemble de points d'estimations considéré. Cette hypothèse reste injustifiée, notamment lorsque cet ensemble est important. De plus, la majorité de ces méthodes maintiennent sans modification un plan d'exécution jusqu'à la terminaison. Cela peut conduire à de mauvaises performances en cas de violation de la robustesse à l'exécution. Compte tenu de ces constatations, nous proposons dans le cadre de cette thèse une méthode d'optimisation hybride qui vise deux objectifs : la production de plans d'exécution robustes, notamment lorsque l'incertitude des estimations utilisées est importante, et la correction d'une violation de la robustesse pendant l'exécution. Notre méthode s'appuie sur des intervalles d'estimations calculés autour des paramètres incertains, pour produire des plans d'exécution robustes. Ces plans sont ensuite enrichis par des opérateurs dits de contrôle et de décision. Ces opérateurs collectent des statistiques à l'exécution et vérifient la robustesse du plan en cours. Si la robustesse est violée, ces opérateurs sont capables de prendre des décisions de corrections du reste du plan sans avoir besoin de rappeler l'optimiseur. Les résultats de l'évaluation des performances de notre méthode indiquent qu'elle fournit des améliorations significatives dans la robustesse d'évaluation de requêtes<br>The quality of an execution plan generated by a query optimizer is highly dependent on the quality of the estimates produced by the cost model. Unfortunately, these estimates are often imprecise. A body of work has been done to improve estimate accuracy. However, obtaining accurate estimates remains very challenging since it requires a prior and detailed knowledge of the data properties and run-time characteristics. Motivated by this issue, two main optimization approaches have been proposed. A first approach relies on single-point estimates to choose an optimal execution plan. At run-time, statistics are collected and compared with estimates. If an estimation error is detected, a re-optimization is triggered for the rest of the plan. At each invocation, the optimizer uses specific values for parameters required for cost calculations. Thus, this approach can induce several plan re-optimizations, resulting in poor performance. In order to avoid this, a second approach considers the possibility of estimation errors at the optimization time. This is modelled by the use of multi-point estimates for each error-prone parameter. The aim is to anticipate the reaction to a possible plan sub-optimality. Methods in this approach seek to generate robust plans, which are able to provide good performance for several run-time conditions. These methods often assume that it is possible to find a robust plan for all expected run-time conditions. This assumption remains unjustified. Moreover, the majority of these methods maintain without modifications an execution plan until the termination. This can lead to poor performance in case of robustness violation at run-time. Based on these findings, we propose in this thesis a hybrid optimization method that aims at two objectives : the production of robust execution plans, particularly when the uncertainty in the used estimates is high, and the correction of a robustness violation during execution. This method makes use of intervals of estimates around error-prone parameters. It produces execution plans that are likely to perform reasonably well over different run-time conditions, so called robust plans. Robust plans are then augmented with what we call check-decide operators. These operators collect statistics at run-time and check the robustness of the current plan. If the robustness is violated, check-decide operators are able to make decisions for plan modifications to correct the robustness violation without a need to recall the optimizer. The results of performance studies of our method indicate that it provides significant improvements in the robustness of query processing
APA, Harvard, Vancouver, ISO, and other styles
3

Hussein, Mohammad. "Un modèle d'exécution à base d'agents mobiles pour l'optimisation dynamique de requêtes réparties à grande échelle." Toulouse 3, 2005. http://www.theses.fr/2005TOU30203.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Large, Aurore. "Une meilleure gestion patrimoniale des réseaux d'eau potable : le modèle de prévision du renouvellement à long terme OPTIMEAU." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0086/document.

Full text
Abstract:
Dans les pays développés, l’eau potable est distribuée au domicile des usagers. Ce confort requier tun long linéaire de réseau de forte valeur patrimoniale. Pour maintenir un équilibre entre ressources financières et performances, il est important d’essayer de renouveler les tronçons au meilleur moment possible. Ce manuscrit présente les modèles court (1 à 3 ans), moyen et long terme ( &gt; 30 ans)actuellement employés. Les processus court terme semblent assez efficaces, mais les méthodes moyen et long terme restent frustes. Le modèle OPTIMEAU propose une approche long terme pour obtenir une vision globale du patrimoine de canalisations et rationaliser sa gestion, tout en restant en phase avec les pratiques opérationnelles de programmation à court terme. Cette démarche, fondée sur des modèles statistiques de survie, est testée à partir des données réelles de 3 services d’eau Européens : le SEDIF (Syndicat des Eaux d’Ile de France), le Grand Lyon et eau service Lausanne en Suisse. L’originalité de ce modèle réside dans l’estimation de la distribution des âges à la mise hors service passée, clef de voûte dans la construction de onze indicateurs liés aux finances, aux réalisations et à la performance future des services<br>In developed countries, drinking water is distributed to households. This comfort requires a long networkwith a high value. To optimize resources and performance, it is important to renew pipe sectionsat the best possible time. This thesis presents the short (1-3 years), medium and long term (&gt; 30 years)models commonly employed. The short-term processes seem quite effective, but long term methods remainrough. The OPTIMEAU model proposes a long-term approach to get a prospective overview ofpipes and improve its management, while remaining connected to the technical practices at short-termlevel. This approach, based on survival statistical models, is tested using actual data of three Europeanwater services : SEDIF (Syndicat des Eaux d’Ile de France), Grand Lyon and eauservice Lausanne inSwitzerland. The originality of this model lies in the estimation of the past decommissioning age distribution,keystone in the construction of eleven indicators related to finance, achievements and futureperformance of water utilities
APA, Harvard, Vancouver, ISO, and other styles
5

Leserf, Patrick. "Optimisation de l’architecture de systèmes embarqués par une approche basée modèle." Thesis, Toulouse, ISAE, 2017. http://www.theses.fr/2017ESAE0008/document.

Full text
Abstract:
L’analyse de compromis d’un modèle système a pour but de minimiser ou de maximiser différents objectifs tels que le coût ou les performances. Les méthodes actuelles de type OOSEM avec SysML ou ARCADIA sont basées sur la classification ; il s’agit de définir les différentes variantes de l’architecture d’un système de base puis d’analyser ces variantes. Dans ces approches, les choix d’architecture sont contraints : la plateforme d’exécution et la topologie sont déjà figées. Nous proposons la notion de « points de décision » pour modéliser les différents choix du système, en utilisant de nouveaux stéréotypes. L’avantage est d’avoir une modélisation plus « compacte » des différentes variantes et de piloter l’exploration des variantes en utilisant des contraintes. Lorsque le concepteur définit l’architecture du système, des points de décisions sont insérés dans le modèle du système. Ils permettent de modéliser la redondance ou le choix d’une instance pour un composant, les variations des attributs d’un composant, ou l’allocation des activités sur les blocs. Les fonctions objectifs sont définies dans un contexte d’optimisation à l’aide du diagramme paramétrique de SysML. Nous proposons des transformations du modèle SysML vers un problème de satisfaction de contraintes pour l’optimisation (CSMOP) dont la résolution nous permet d’obtenir l’ensemble des architectures optimales. Cette transformation est implantée dans un démonstrateur (plug-in Eclipse) permettant une utilisation conjointe de l’outil Papyrus et de solveurs, disponibles sous forme de logiciels libres. La méthode est illustrée avec des cas d’étude constitués d’une caméra stéréoscopique puis d’un drone, l’ensemble étant modélisé avec Papyrus<br>Finding the set of optimal architectures is an important challenge for the designer who uses the Model-Based System Engineering (MBSE). Design objectives such as cost, performance are often conflicting. Current methods (OOSEM with SysML or ARCADIA) are focused on the design and the analysis of a particular alternative of the system. In these methods, the topology and the execution platform are frozen before the optimization. To improve the optimization from MBSE, we propose a methodology combining SysML with the concept of “decision point”. An initial SysML model is complemented with “decisions points” to show up the different alternatives for component redundancy, instance selection and allocation. The constraints and objective functions are also added to the initial SysML model, with an optimiza-tion context and parametric diagram. Then a representation of a constraint satisfaction problem for optimization (CSMOP) is generated with an algorithm and solved with an existing solver. A demonstrator implements this transformation in an Eclipse plug-in, combining the Papyrus open-source tool and CSP solvers. Two case studies illustrate the methodology: a stereoscopic camera sensor module and a mission controller for an Unmanned Aerial Vehi-cle (UAV)
APA, Harvard, Vancouver, ISO, and other styles
6

Naacke, Hubert. "Modèle de coût pour médiateur de bases de données hétérogènes." Versailles-St Quentin en Yvelines, 1999. http://www.theses.fr/1999VERS0013.

Full text
Abstract:
Les @ systèmes distribués accèdent à des sources d'informations diverses au moyen de requêtes déclaratives. Une solution pour résoudre les problèmes liés à l'hétérogéneité des sources repose sur l'architecture médiateur / adaptateurs. Dans cette architecture, le médiateur accepte en entrée une requête de l'utilisateur, La traite en accèdant aux sources via les adaptateurs concernés et renvoie la réponse à l'utilisateur. Le médiateur offre une vue globale et centralisée des sources. Les adaptateurs offrent un accès uniforme aux sources, au service du médiateur. Pour traiter une requête de manière efficace, le médiateur doit optimiser le plan décrivant le traitement de la requête. Pour cela, plusieurs plans sémantiquement équivalents sont envisagés, Le coût (i. E. Le temps de réponse) de chaque plan est estimé afin de choisir celui de moindre coût qui sera exécuté. Le médiateur estime le coût des opérations traitées par les sources en utilisant les informations de coût que les sources exportent. Or, à cause de l'autonomie des sources, les informations exportées peuvent s'avérer insuffisantes pour estimer le coût des opérations avec une précision convenable. Cette thèse propose une nouvelle méthode permettant au développeur d'adaptateur d'exporter un modèle de coût d'une source à destination du médiateur. Le modèle exporté contient des statistiques qui décrivent les données stockées dans la source ainsi que des fonctions mathématiques pour évaluer le coût des traitements effectués par la source. Lorsque le développeur d'adaptateur manque d'information ou de moyen, il a la possibilité de fournir un modèle de coût partiel qui est automatiquement completé avec le modèle générique prédéfini au sein du médiateur. Nous validons expérimentalement le modèle de coût proposé en accèdant à des sources web. Cette validation montre l'efficacité du modèle de coût générique ainsi que celle des modèles plus spécialisés selon les particularités des sources et les cas d'applications<br>Les systemes distribues accedent a des sources d'informations diverses au moyen de requetes declaratives. Une solution pour resoudre les problemes lies a l'heterogeneite des sources repose sur l'architecture mediateur / adaptateurs. Dans cette architecture, le mediateur accepte en entree une requete de l'utilisateur, la traite en accedant aux sources via les adaptateurs concernes et renvoie la reponse a l'utilisateur. Le mediateur offre une vue globale et centralisee des sources. Les adaptateurs offrent un acces uniforme aux sources, au service du mediateur. Pour traiter une requete de maniere efficace, le mediateur doit optimiser le plan decrivant le traitement de la requete. Pour cela, plusieurs plans semantiquement equivalents sont envisages, le cout (i. E. Le temps de reponse) de chaque plan est estime afin de choisir celui de moindre cout qui sera execute. Le mediateur estime le cout des operations traitees par les sources en utilisant les informations de cout que les sources exportent. Or, a cause de l'autonomie des sources, les informations exportees peuvent s'averer insuffisantes pour estimer le cout des operations avec une precision convenable. Cette these propose une nouvelle methode permettant au developpeur d'adaptateur d'exporter un modele de cout d'une source a destination du mediateur. Le modele exporte contient des statistiques qui decrivent les donnees stockees dans la source ainsi que des fonctions mathematiques pour evaluer le cout des traitements effectues par la source. Lorsque le developpeur d'adaptateur manque d'information ou de moyen, il a la possibilite de fournir un modele de cout partiel qui est automatiquement complete avec le modele generique predefini au sein du mediateur. Nous validons experimentalement le modele de cout propose en accedant a des sources web. Cette validation montre l'efficacite du modele de cout generique ainsi que celle des modeles plus specialises selon les particularites des sources et les cas d'applications
APA, Harvard, Vancouver, ISO, and other styles
7

Favier, Aurélie. "Décompositions fonctionnelles et structurelles dans les modèles graphiques probabilistes appliquées à la reconstruction d'haplotypes." Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1527/.

Full text
Abstract:
Cette thèse s'articule autour de deux thèmes : la décomposition dans les modèles graphiques que sont, entre autres, les réseaux bayésiens et les réseaux de fonctions de coûts (WCSP) et la reconstruction d'haplotypes dans les pedigrees. Nous appliquons les techniques des WCSP pour traiter les réseaux bayésiens, en exploitant les propriétés structurelles et fonctionnelles, de manière exacte et approchée, des instances dans le cadre de l'inférence (ou d'un problème proche, celui de compter le nombre de solutions) et de l'optimisation. Nous définissons en particulier une décomposition de fonctions qui produit des fonctions portant sur un plus petit nombre de variables. Un exemple d'application en optimisation est la reconstruction d'haplotypes. Elle est essentielle pour une meilleure prédiction de la gravité de maladie ou pour comprendre des caractères physiques particuliers. La reconstruction d'haplotypes se modélise sous forme d'un réseau bayésien. La décomposition fonctionnelle permet de réduire ce réseau bayésien en un problème d'optimisation WCSP (Max-2SAT)<br>This thesis is based on two topics : the decomposition in graphical models which are, among others, Bayesian networks and cost function networks (WCSP) and the haplotype reconstruction in pedigrees. We apply techniques of WCSP to treat Bayesian network. We exploit stuctural and fonctional properties, in an exact and approached methods. Particulary, we define a decomposition of function which produces functions with a smaller variable number. An application example in optimization is the haplotype reconstruction. It is essential for a best prediction of seriousness of disease or to understand particular physical characters. Haplotype reconstruction is represented with a Bayesian network. The functionnal decomposition allows to reduce this Bayesian network in an optimization problem WCSP (Max-2SAT)
APA, Harvard, Vancouver, ISO, and other styles
8

Elias, Antoine. "Diagnostic de l'embolie pulmonaire : optimisation par l'analyse du rapport de vraisemblance et du ratio coût-efficacité et proposition d'un modèle d'étude clinique." Lyon 1, 2003. http://www.theses.fr/2003LYO10130.

Full text
Abstract:
Nous avons analysé différents aspects de validité des tests utilisés dans le diagnostic de l'embolie pulmonaire par une revue systématique et des études cliniques que nous avons réalisées. L'analyse du rapport de vraisemblance a montré l'absence de différence majeure entre les stratégies associant trois tests et l'intérêt d'incorporer le scanner hélicoi͏̈dal dans les stratégies utilisant les D-dimères ou les ultrasons limités. L'analyse coût-efficacité de vingt stratégies, réalisée selon un modèle de décision Bayésien, a montré deux options dominantes : la stratégie " D-dimères, ultrasons limités, scanner hélicoi͏̈dal " la moins coûteuse et la stratégie " ultrasons étendus, scanner hélicoi͏̈dal " la plus efficace. Le coût par vie supplémentaire gagnée par la dernière stratégie comparée à la première était acceptable.
APA, Harvard, Vancouver, ISO, and other styles
9

Sami, Yasser. "Accélérer la recherche sur les nanomatériaux énergétiques : modèles de substitution basés sur les données pour les simulations coûteuses." Electronic Thesis or Diss., Université de Toulouse (2023-....), 2025. http://www.theses.fr/2025TLSES023.

Full text
Abstract:
Cette thèse explore le développement et l'application de techniques d'apprentissage automatique, en particulier la modélisation par substitut (surrogate modeling) et l'échantillonnage adaptatif, pour relever les défis computationnels associés à la simulation et à l'optimisation de la combustion des nanothermites. Les simulations physiques traditionnelles des nanothermites sont extrêmement coûteuses en termes de calcul, ce qui limite leur exploitation pour la conception via l'optimisation. Pour surmonter ces limitations, cette recherche se concentre sur la construction de modèles substitutifs efficaces et la mise en œuvre de stratégies adaptatives de génération de données, permettant de réduire considérablement les coûts de calcul tout en maintenant une précision prédictive élevée. La première phase de ce travail consiste en une évaluation comparative de divers algorithmes d'apprentissage automatique afin d'identifier l'approche de modélisation par substitut la plus efficace pour la combustion des nanothermites. Les Perceptrons Multi-Couches (MLP) se sont révélés être le choix optimal, offrant une précision et une efficacité calculatoire supérieures par rapport à d'autres modèles, y compris la Régression par Processus Gaussiens (GPR). Ces modèles de substitution ont démontré leur capacité à approximer les dynamiques non linéaires des processus de combustion avec une précision remarquable, ouvrant la voie à leur intégration dans des cadres d'échantillonnage adaptatif. La deuxième phase introduit une méthodologie d'échantillonnage bayésien axée sur les régions d'intérêt (Interest Region Bayesian Sampling, IRBS), conçue pour injecter des connaissances physiques dans le processus d'échantillonnage afin de générer efficacement des données d'entraînement en se concentrant sur des régions spécifiques de l'espace de conception. Cette recherche met en avant deux avancées majeures : l'implémentation d'évaluations parallélisées des configurations optimales pour accélérer la collecte des données, et l'amélioration du processus d'échantillonnage à travers une nouvelle formulation d'une fonction de mérite (FOM). Cette fonction utilise une estimation de densité par noyau (Kernel Density Estimation, KDE) pour l'exploration, remplaçant la métrique coûteuse d'incertitude basée sur le GPR. L'approche basée sur le KDE améliore non seulement l'efficacité de l'échantillonnage, mais renforce également l'adaptabilité du cadre à des distributions de données diverses. De plus, l'intégration des MLP comme modèles substitutifs dans le cadre d'IRBS a validé la possibilité d'implémenter cette méthodologie aux espaces de conception de plus haute dimension. Les résultats mettent en lumière le potentiel de l'échantillonnage adaptatif et de la modélisation par substitut pour révolutionner la conception et l'optimisation de matériaux complexes. En réduisant les coûts de calcul et en permettant une exploration rapide de l'espace de conception, ce travail répond à une limitation majeure dans la science des matériaux, en particulier pour les nanomatériaux énergétiques tels que les nanothermites. Au-delà de ses applications immédiates, le cadre proposé établit une base pour l'extension des techniques d'apprentissage automatique à des simulations multi-physiques et à l'optimisation d'autres systèmes de haute dimension et exigeants en puissance de calcul<br>This thesis explores the development and application of machine learning techniques, particularly surrogate modeling and adaptive sampling, to address the computational challenges associated with the simulation and optimization of nanothermite combustion. Traditional physical simulations of nanothermites are computationally intensive, limiting their exploitation for structural design through optimization. To overcome these limitations, this research focuses on building efficient surrogate models and implementing adaptive data generation strategies that significantly reduce computational costs while maintaining predictive accuracy. The first phase of this work involves benchmarking various machine learning algorithms to identify the most effective surrogate modeling approach for nanothermite combustion. Multilayer Perceptrons (MLPs) emerged as the optimal choice, achieving superior accuracy and computational efficiency compared to other models, including Gaussian Process Regression (GPR). These surrogates demonstrated the capability to approximate the nonlinear dynamics of combustion processes with remarkable precision, paving the way for their integration into adaptive sampling frameworks. The second phase introduces an Interest Region Bayesian Sampling (IRBS) methodology, designed to inject physical knowledge into the sampling process to generate training data efficiently by focusing on regions of interest within the design space. The research emphasizes two critical advancements: enabling parallelized evaluations of candidate designs to accelerate data collection and enhancing the sampling process through a novel figure of merit (FOM) formulation. This FOM leverages Kernel Density Estimation (KDE) for exploration, replacing the computationally expensive GPR uncertainty metric. The KDE-based approach not only improves sampling efficiency but also enhances the adaptability of the framework to diverse data distributions. Furthermore, the integration of MLPs as surrogates within the IRBS framework validated the methodology's scalability to higher dimensional design spaces. The results underscore the potential of adaptive sampling and surrogate modeling to revolutionize the design and optimization of complex materials. By reducing computational overhead and enabling rapid exploration of the design space, this work addresses a key bottleneck in materials science, particularly for energetic nanomaterials like thermites. Beyond its immediate application, the proposed framework lays the groundwork for extending machine learning techniques to multi-physics simulations and the optimization of other high-dimensional, computationally demanding systems
APA, Harvard, Vancouver, ISO, and other styles
10

Antomarchi, Anne-Lise. "Conception et pilotage d'un atelier intégrant la fabrication additive." Thesis, Université Clermont Auvergne‎ (2017-2020), 2019. http://www.theses.fr/2019CLFAC035/document.

Full text
Abstract:
La fabrication additive est un domaine en plein essor. Cependant, les industriels sont aujourd’hui dans une phase d’interrogation sur l’utilisation de ce procédé dans le cadre d’une production de masse. La problématique posée dans le cadre de ces travaux de recherche est : Comment rendre viable, industriellement, le procédé de fusion sur lit de poudre ? Nos travaux abordent la conception et le pilotage d’ateliers intégrant la fabrication additive et le processus complet d’obtention de la pièce selon les trois niveaux de décision : stratégique, tactique et opérationnel. D’un point du vue stratégique, des décisions fortes d’investissement, de sélection de machines et de choix d’organisation sont à prendre avec des enjeux économiques importants. L’objectif est de définir une méthode d’optimisation multicritère pour la conception modulaire d’un système de production intégrant la fabrication additive en présence de données incertaines, optimale sur le long terme et sur le court terme. D’un point de vue tactique, toutes les pièces ne sont pas forcément des candidates pertinentes pour la fabrication additive. Dans ces travaux, nous avons développé un outil d’aide à la décision qui évalue la pertinence ou non de la fabrication additive pour l’obtention des pièces dans une approche globale des coûts. Au niveau opérationnel, nous proposons un outil basé sur la simulation de flux qui permet de passer des commandes aux ordres de fabrication et leur ordonnancement de manière à garantir l’efficience de l’atelier. Ces travaux de recherche sont développés en lien avec des acteurs du monde industriel : AddUp, MBDA et Dassault qui alimentent nos travaux et nous permettent de confronter nos outils à une réalité industrielle<br>The additive manufacturing is a field on the rise. However, companies wonder about the use of additive manufacturing for mass production. The problem raised in the context of this thesis is: How to make the process of sintering laser melting industrially viable? Our work focuses on the design and on the management of workshops integrating the additive manufacturing and of the complete process to obtain part according to three levels of decision: strategic, tactic and operational. About the strategic level, strong decisions of investment, machines selection and organization choice are taken with important economic issues. The aim is to define a multicriteria optimization method for the modular design of a production system integrating the additive manufacturing in the presence of uncertain data, optimal in the long term and the short term. From a tactical point of view, not all parts are necessarily relevant candidates for additive manufacturing. In this work, we developed a decision support tool that evaluates the relevance or not of additive manufacturing to obtain parts in a global cost approach. At the operational level, we offer a tool based on flow simulation that allows orders to be placed to production orders and their scheduling in order to guarantee the efficiency of the workshop. This research work is developed in collaboration with companies: AddUp, MBDA and Dassault, who contribute to our work and enable us to compare our tools with an industrial reality
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Optimisation de modèle de coûts"

1

Rennes, Université de, ed. Traitement de l'information imparfaite et analyse de coûts: Application au modèle coût - volume - profit. A.N.R.T, Université Pierre Mendes France (Grenoble II), 1999.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Sawadogo, Antoine Romain. La position de l'Église Catholique burkinabè au sujet de la révision de l'article 37: Modèle de cohérence pour une optimisation de l'engagement politique du chrétien. [Les Éditions I.K.S.], 2019.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Onvural, Raif. Data Communications and their Performance (IFIP International Federation for Information Processing). Springer, 1995.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Optimisation de modèle de coûts"

1

Amaitik, Nasser, Ming Zhang, Kaifeng Wang, Yuchun Xu, and Peihua Gu. "Enhancing Sustainability in Manufacturing Through Life Cycle Optimization of Industrial Equipment." In Lecture Notes in Mechanical Engineering. Springer Nature Switzerland, 2025. https://doi.org/10.1007/978-3-031-93891-7_58.

Full text
Abstract:
Abstract In the drive towards sustainable manufacturing, extending the service life and improving efficiency of industrial equipment are crucial. Industrial equipment faces challenges of deterioration caused by wear, fatigue etc. effects. Effective maintenance is essential for minimizing the effect of these challenges. This research introduces an integrated model that facilitates the sustainable operation of industrial equipment through life cycle optimization. The model determines optimal maintenance schedules over life cycle by integrating multiple sub-models to analyze equipment. These sub-models include a reliability model to estimate deterioration, a cost model to evaluate the cost of maintenance scenarios, and a scheduling model to generate and select maintenance schedules that minimize life cycle costs while maximizing equipment reliability. By providing life cycle optimisation capabilities, this model supports the transition towards more sustainable manufacturing practices with minimized cost incurred.
APA, Harvard, Vancouver, ISO, and other styles
2

MENUT, Laurent. "Qualification et optimisation." In Modélisation de la pollution atmosphérique régionale. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9102.ch7.

Full text
Abstract:
Ce chapitre présente les différentes approches pour jauger du réalisme d’une simulation par rapport à ce que l’on cherchait à représenter. Cela inclut le calcul de scores statistiques et les représentativités différentes entre mesures et observations. Sont présentées ensuite les différentes méthodes pour évaluer la variabilité du modèle notamment avec des simulations de scénarios et des simulations d’ensemble.
APA, Harvard, Vancouver, ISO, and other styles
3

"Modèle économique, coûts et modes de financement des MOOCs." In Pour comprendre les MOOCs. Presses de l'Université du Québec, 2017. http://dx.doi.org/10.1515/9782760547308-011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

MERCIER, Quentin, and Fabrice POIRION. "Optimisation multi-objectif stochastique : un algorithme de descente." In Ingénierie mécanique en contexte incertain. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9010.ch8.

Full text
Abstract:
Dans cette étude, l’algorithme classique du gradient stochastique utilisé en optimisation stochastique est appliqué au cas de l’optimisation multi-objectif pour des fonctions coûts qui sont soit régulières, convexes ou non régulières. Cet algorithme est basé sur l’existence d’un vecteur de descente commun et il est presque sûrement convergent. Une application en optimisation fiabiliste est présentée ainsi que des comparaisons avec d’autres algorithmes.
APA, Harvard, Vancouver, ISO, and other styles
5

Sharma, Prerna, and Bhim Singh. "Optimization of Various Costs in Inventory Management using Neural Networks." In Advanced Mathematical Applications in Data Science. BENTHAM SCIENCE PUBLISHERS, 2023. http://dx.doi.org/10.2174/9789815124842123010009.

Full text
Abstract:
The process of maintaining the right quantity of inventory to meet demand, minimising logistics costs, and avoiding frequent inventory problems, including reserve outs, overstocking, and backorders is known as inventory optimisation. One has a finite capacity and is referred to as an owned warehouse (OW), which is located near the market, while the other has an endless capacity and is referred to as a rented warehouse (RW), which is located away from the market. Here, lowering the overall cost is the goal. Neural networks are employed in these works to either maximise or minimise cost. The findings produced from the neural networks are compared with a mathematical model and neural networks. Findings indicate that neural networks outperformed both conventional mathematical models and neural networks in terms of optimising the outcomes. The best way to understand supervised machine learning algorithms like neural networks is in the context of function approximation. The benefits and drawbacks of the two-warehouse approach compared to the single warehouse plan will also be covered. We investigate cost optimisation using neural networks in this chapter, and the outcomes will also be compared using the same.
APA, Harvard, Vancouver, ISO, and other styles
6

FEIDT, Michel. "Thermodynamique et optimisation des machines à cycle inverse." In Systèmes frigorifiques, pompes à chaleur et machines à cycle inverse. ISTE Group, 2020. http://dx.doi.org/10.51926/iste.9123.ch3.

Full text
Abstract:
Partant d’une description des machines réceptrices selon la thermodynamique de l’équilibre, on développe le modèle de la thermodynamique en temps fini, pour aller vers des modèles selon la Thermodynamique en Dimensions Physiques Finies (TDPF). Ainsi divers modèles de la littérature sont prolongés : machine frigorique de CARNOT, de CHAMBADAL et de CURZON-AHLBORN. D’autres extensions sont données en fin de chapitre.
APA, Harvard, Vancouver, ISO, and other styles
7

KHALIL, Ahmad, Nader MBAREK, and Olivier TOGNI. "Optimisation de la consommation énergétique des dispositifs IoT." In La gestion et le contrôle intelligents des performances et de la sécurité dans l’IoT. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9053.ch4.

Full text
Abstract:
Ce chapitre s’intéresse à l’optimisation de la consommation énergétique dans un environnement IoT. Il décrit différents travaux et projets de recherche proposant des mécanismes adaptés qui permettent de prolonger les durées de vie des dispositifs IoT. Dans ce contexte, un mécanisme intelligent d’auto-optimisation de la consommation énergétique des objets IoT basé sur un modèle de logique floue est présenté.
APA, Harvard, Vancouver, ISO, and other styles
8

Trébucq, Stéphane, and Jocelyn Husser. "Chapitre 66. Vers un modèle général des coûts cachés intégrant les problématiques écologiques ?" In Traité du management socio-économique. EMS Editions, 2021. http://dx.doi.org/10.3917/ems.saval.2021.01.0746.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Pons Gerard, Compta Marc, Berjaga Xavier, Lulli Filippo, and Lopez Josep Maria. "Intelligent System for Optimisation in Golf Course Maintenance." In Frontiers in Artificial Intelligence and Applications. IOS Press, 2014. https://doi.org/10.3233/978-1-61499-452-7-67.

Full text
Abstract:
The use of conventional water resources for golf course activities is increasingly contested. As a result, in recent years there has been a considerable demand for golf courses to adopt environmentally sustainable strategies. Moreover, other exploitation-derived resources of turfgrass treatment have important economic costs. Thus, a major optimisation in resources and time is required, which is covered by the WATERGOLF project through different modules. This paper presents an intelligent system to optimise water consumption in golf courses, as well as to improve their management. Hence, the system is designed to suggest corrective actions through an expert system to the greenkeeper, as well as to trigger alarms in risky situations in four different modules: irrigation, weeds, diseases, and fertility. These suggestions are based on expert knowledge acquired from turfgrass experts and a set of measurements gathered by advanced sensors placed in the golf course. Although the intelligent system is currently being developed, it is expected that a further evaluation in real conditions will help golf facilities to reduce their maintenance costs and environmental impact.
APA, Harvard, Vancouver, ISO, and other styles
10

Lin, Qing. "Deep Learning Based Optimisation Algorithm for Supply Chain Logistics." In Advances in Transdisciplinary Engineering. IOS Press, 2025. https://doi.org/10.3233/atde250254.

Full text
Abstract:
Supply chain logistics optimization faces mounting challenges in the era of global commerce, particularly in handling dynamic demand patterns and complex path planning requirements. Traditional optimization methods often fall short in addressing these challenges, especially when dealing with seasonal fluctuations and real-time decision-making needs. This study develops an integrated solution leveraging advanced deep learning technologies to enhance supply chain efficiency and responsiveness.We design a three-module collaborative algorithm: an LSTM-CNN hybrid model for demand prediction, a double deep Q-network for inventory optimization, and a graph attention network for path planning. The system was trained and validated using comprehensive datasets from 2020 to 2024, encompassing over 80 product categories across multiple industry sectors. The LSTM-CNN module incorporates attention mechanisms to handle promotional events, while the path planning module optimizes delivery routes considering real-time conditions.Real-world enterprise application validation demonstrates significant improvements: inventory turnover increased by 25.1%, logistics costs reduced by 23.7%, and on-time delivery rate reached 96.7%. The system showed particular strength in handling seasonal fluctuations, maintaining high service levels even under demand variations of ±30%. This collaborative algorithm effectively solves complex scenarios and fluctuating demand problems that traditional methods struggle to address, providing data-driven decision support for enterprises to achieve precise logistics management.
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Optimisation de modèle de coûts"

1

Sousa, Daniel, Miguel Castro Oliveira, and Maria Cristina Fernandes. "Modelling of a Heat Recovery System (HRS) Integrated with Steam Turbine Combined Heat and Power (CHP) Unit in a Petrochemical Plant." In The 35th European Symposium on Computer Aided Process Engineering. PSE Press, 2025. https://doi.org/10.69997/sct.115540.

Full text
Abstract:
This study models a Heat Recovery System (HRS) within a petrochemical plant, assessing its economic and environmental viability. The system integrates four combustion processes and a condensing steam turbine combined heat and power (ST-CHP) generation unit, along with waste heat recovery technologies to reduce the plant�s energy use. The developed system-based approach extends a previous methodology, initially focused on reducing energy consumption in production processes, to encompass energy supply systems (in which CHP is included) as well. Simulation models were developed for two improvement scenarios regarding the integration of the ST-CHP into the HRS: preheating either the combustion air stream or the inlet water of the ST-CHP�s boiler. The latter demonstrated greater potential for reducing energy-related operational costs, thus an NLP optimisation model was developed based on that scenario. Both simulation and optimisation models were created resorting to the capabilities of the ThermWatt computational tool (comprising Modelica and Python languages). A payback period of about 2 years and 3 months and a reduction in equivalent carbon dioxide emissions of 5.14 kt CO2,eq/year were estimated for the final system, which are significantly reasonable in comparison to benchmark values.
APA, Harvard, Vancouver, ISO, and other styles
2

Aldren, Cameron, Nilay Shah, and Adam Hawkes. "Optimisation Under Uncertain Meteorology: Stochastic Modelling of Hydrogen Export Systems." In The 35th European Symposium on Computer Aided Process Engineering. PSE Press, 2025. https://doi.org/10.69997/sct.191427.

Full text
Abstract:
Deriving accurate cost projections associated with producing hydrogen within the context of an energy-export paradigm is a challenging feat due to non-deterministic nature of weather systems. Many research efforts employ deterministic models to estimate costs, which could be biased by the innate ability of these models to �see the future�. To this end we present the findings of a multistage stochastic model of hydrogen production for energy export (using liquid hydrogen or ammonia as energy vectors), the findings of which are compared to that of a deterministic programme. Our modelling found that the deterministic model consistently underestimated the price relative to the non-deterministic approach by $ 0.08 � 0.10 kg-1(H2) (when exposed to the exact same amount of weather data) and saw a standard deviation 40% higher when modelling the same time horizon. In addition to comparing modelling paradigms, different grid-operating strategies were explored in their ability to mitigate three critical co-sensitive factors of the production facility: high-cost hydrogen storage, uncertainty in weather forecasting and sluggish production processes. We found that a �grid-wheeling� strategy substantially reduces the production cost for a solar system (by 16% and 21% for LH2 and NH3, respectively) due to its ability to guarantee the return of energy borrowed overnight during the day, but was not effective for the wind system, due to the non-periodic nature of aeolian weather patterns.
APA, Harvard, Vancouver, ISO, and other styles
3

Anténord, Jean-Baptiste, Etienne Billette de Villemeur, and Raulin L. Cadet. "Accès aux biens et services des ménages aux revenus les plus faibles : un modèle microéconomique." In Sessions du CREGED à la 30e Conférence Annuelle de Haitian Studies Association. Editions Pédagie Nouvelle & Université Quisqueya, 2021. http://dx.doi.org/10.54226/uniq.ecodev.18793_c2.

Full text
Abstract:
Les ménages à faible revenu ont un accès limité au marché des biens et services du fait de leur faible capacité à payer. Lorsque ces biens et services ne sont pas strictement indispensables, il est possible d’identifier un revenu minimum en deçà duquel les ménages préfèrent renoncer à leur usage. Ce niveau de revenu déterminant l’exclusion est naturellement croissant avec le niveau des prix pratiqués par les fournisseurs de ces biens et services. Si les coûts sont trop élevés, à moins de subventions, il n’est pas possible d’éviter qu’il y ait exclusion. Cependant, même dans le cas où, étant donné les coûts, il serait possible aux entreprises d’offrir des biens et services à un prix abordable pour tous, il n’est pas certain qu’il soit dans leur intérêt de le faire. Nous identifions pourtant, dans le cadre d’un exemple, des circonstances où la recherche du profit amène spontanément les entreprises à adopter une politique tarifaire inclusive.
APA, Harvard, Vancouver, ISO, and other styles
4

Deschamps, Frédéric, and Grégoire Savary. "Optimisation d'architectures de systèmes aéronautiques certifiables basée sur l'approche modèle." In Congrès Lambda Mu 20 de Maîtrise des Risques et de Sûreté de Fonctionnement, 11-13 Octobre 2016, Saint Malo, France. IMdR, 2016. http://dx.doi.org/10.4267/2042/61806.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Milli, Andrea, and Olivier Bron. "Fully Parametric High-Fidelity CFD Model for the Design Optimisation of the Cyclic Stagger Pattern of a Set of Fan Outlet Guide Vanes." In ASME Turbo Expo 2009: Power for Land, Sea, and Air. ASMEDC, 2009. http://dx.doi.org/10.1115/gt2009-59416.

Full text
Abstract:
The present paper deals with the redesign of cyclic variation of a set of fan outlet guide vanes by means of high-fidelity full-annulus CFD. The necessity for the aerodynamic redesign originated from a change to the original project requirement, when the customer requested an increase in specific thrust above the original engine specification. The main objectives of this paper are: 1) make use of 3D CFD simulations to accurately model the flow field and identify high-loss regions; 2) elaborate an effective optimisation strategy using engineering judgement in order to define realistic objectives, constraints and design variables; 3) emphasise the importance of parametric geometry modelling and meshing for automatic design optimisation of complex turbomachinery configurations; 4) illustrate that the combination of advanced optimisation algorithms and aerodynamic expertise can lead to successful optimisations of complex turbomachinery components within practical time and costs constrains. The current design optimisation exercise was carried out using an in-house set of software tools to mesh, resolve, analyse and optimise turbomachinery components by means of Reynolds-averaged Navier-Stokes simulations. The original configuration was analysed using the 3D CFD model and thereafter assessed against experimental data and flow visualisations. The main objective of this phase was to acquire a deep insight of the aerodynamics and the loss mechanisms. This was important to appropriately limit the design scope and to drive the optimisation in the desirable direction with a limited number of design variables. A mesh sensitivity study was performed in order to minimise computational costs. Partially converged CFD solutions with restart and response surface models were used to speed up the optimisation loop. Finally, the single-point optimised circumferential stagger pattern was manually adjusted to increase the robustness of the design at other flight operating conditions. Overall, the optimisation resulted in a major loss reduction and increased operating range. Most important, it provided the project with an alternative and improved design within the time schedule requested and demonstrated that CFD tools can be used effectively not only for the analysis but also to provide new design solutions as a matter of routine even for very complex geometry configurations.
APA, Harvard, Vancouver, ISO, and other styles
6

Shankar, P., M. Raghunathan, N. Mohd Azam, et al. "Enhancing Value from a Mature Offshore Field: Sweet Spot Identification Leveraging Subsurface Insights and Analytical Reservoir Engineering for Optimal Infill Campaigns." In SPE Symposium and Exhibition - Production Enhancement and Cost Optimisation. SPE, 2024. http://dx.doi.org/10.2118/220627-ms.

Full text
Abstract:
Abstract S-field situated offshore the Sabah coast in East Malaysia has been producing from multi-stacked, compartmentalized reservoirs for 45 years recovering ∼45% of the STOIIP and ha s undergone 10 development campaigns. Uncertainty on identifying sweet spots through dynamic modelling has been challenging owing to limitations on data acquisition/quality/reliability and inherent issues with the modelling approach, typical for a matured field. Results from the first well of recent drilling campaign offered striking surprises, which triggered application of classical reservoir engineering practices – resulted in a successful campaign. Higher EUR per well were achieved from rest of the campaign wherein quick decision making could be achieved through focussed and integrated multi-disciplinary approach. Building on this experience, the targets for an upcoming drilling campaign were achieved through analytical reservoir engineering, complemented with robust subsurface risk assessment -seismic, geology, petrophysical and reservoir engineering considerations. Reservoir targets were identified based on meticulous analysis of well/reservoir performance, open-hole logs, contact movement and seismic bright-spots. Drainage radii per zone around existing and past drainage points were established based on the EUR. The targets were screened visually on maps lest they should interfere with the drained areas. The targets were categorized as untapped reservoirs, attic oil, sweep and low-recovery areas, which helped in summarizing risks. Targets were stringed together in an optimal way by considering the possibility of commingling reservoirs within a single infill well, thereby reducing risks, minimizing costs, and maximizing recovery. Well trajectories were planned to target the identified sweet spots through fewer platforms utilizing empty slots or abandoned wells slots. A bespoke approach was adapted to check and mitigate crossflow between zones throughout the well-life cycle through network modelling involving the material balance and vertical flow performance models. The targeted zone-level STOIIP were derived based on GRV around them, clipped for contacts and faults, which were used as inputs for material balance models. The inflow properties for each zone were benchmarked productivity of existing wells stock. The forecast for each proposed well were calibrated with liquid production, water cut, and gas-oil ratio trends observed in nearby existing wells. With growing portfolio of mature fields in the industry, the application of analytical techniques is growing leaps and bounds in identifying sweet spots. Innovative approaches/workflows like the one illustrated in this paper are often found useful. The key enablers for identifying the infill locations and optimizing them are integration of data and application of basic knowledge of sub-surface domains. This paper is a good example to illustrate the importance of such workflow and enablers to extend the life of mature field and add value to the business.
APA, Harvard, Vancouver, ISO, and other styles
7

Kumar, P., U. Gogoi, B. Bhatt, A. Dhiman, C. Chatterjee, and S. Subbiah. "Automated Sand Influx Mitigation Workflow Using Geomechanical Analysis and Minimum Tubing-Head Pressure Estimation." In SPE Symposium and Exhibition - Production Enhancement and Cost Optimisation. SPE, 2024. http://dx.doi.org/10.2118/220649-ms.

Full text
Abstract:
Abstract Sand production is a major challenge for oil and gas companies worldwide. We describe an automated workflow that helps mitigate sanding caused by excessive drawdown by determining the minimum tubing-head pressure (THP). The automated workflow is designed to autocalibrate, analyze, and recommend actionable measures to control THP to prevent sand ingression. This enables oil and gas operators to control sand production, resulting in production enhancement and fewer workover jobs. The operating philosophy consists of four components: 1D geomechanical analysis, sand ingression analysis, wellbore modeling and automated calibration, and automated minimum THP estimation. A 1D Mechanical Earth Model (1D MEM) calibrated with drilling events and caliper data was used as an input to the sand prediction model. The sand prediction model evaluates critical drawdown pressure (CDDP) and establishes a sand-free envelope. A calibrated digital twin is created using well test parameters. The automated sand mitigation workflow uses CDDP values and well models. The minimum flowing bottomhole pressure estimated from CDDP is translated into minimum THP for regular monitoring and sand control by the production team. In this work, we examined the scale, complexity, technology, and advantages of using the digital oil and gas field workflow. Self-flow gas wells were considered as potential candidate wells for the study. The excellent results obtained from this study in terms of production enhancement can set a benchmark for projects concerning efficiency and output gains. Detailed analysis helped classify wells where production gain can be realized without any sand production. Through the study, it was observed that in two wells, THP reduction in steps can potentially lead to sand-free production, with a possible cumulative incremental gas production increase over 100%. Such analysis reiterated the significance of maintaining the minimum THP estimated by the workflow and resulted in a significant shift towards the adoption of digital and integrated workflows for problem solving, ultimately leading to improved operational efficiency and profitability. The integration of state-of-the-art geomechanical analysis and automated workflows produced outstanding results in terms of production gain and reduced analysis time, thereby leading to extended well deliverability, delayed sand production and reduced workover frequencies. This approach provided efficient management and control of minimum THP values without relying on downhole pressure gauges, thus empowering the production team to make informed decisions and optimize production, ultimately saving on well maintenance costs.
APA, Harvard, Vancouver, ISO, and other styles
8

Ermakova, I. I. "Quantitative Approach to the Analysis of Recruitment and Training Models." In XXI International Conference of Young Scientists. Institute of Economics of the Ural Branch of the Russian Academy of Sciences, 2024. http://dx.doi.org/10.17059/mkmu2024-18.

Full text
Abstract:
The article examines a methodological approach to the analysis of recruitment and training models considering choice factors and the cost-benefit ratio. The analysis revealed current problems of skills shortages in the labour market, as well as the recruitment and training models used by companies. The study presents a quantitative analysis of models with consideration of costs and predicted results, as well as makes assumptions about the optimal model for staff recruitment. The findings can be used for the development and optimisation of personnel policy in the field of staff recruitment and training.
APA, Harvard, Vancouver, ISO, and other styles
9

Soerensen, D. S. H., J. Paterson, G. Lobban, et al. "Electromechanical Wireline Tool for DHSV Investigation and Remediation." In SPE Symposium and Exhibition - Production Enhancement and Cost Optimisation. SPE, 2024. http://dx.doi.org/10.2118/220661-ms.

Full text
Abstract:
Abstract (overall description) The downhole safety valve (DHSV) is a critical well safety component which prevents the uncontrolled release of reservoir fluids in the event of a surface disaster or other near-surface well integrity failure. The DHSV described in this case study is the common unidirectional flapper design. This fail-safe flapper design employs a flow tube or control sleeve which is moved down using pressure from surface control lines, pushing the flapper open when the well is producing. Spring force within the DHSV pushes the flow tube up when no pressure is applied from surface, allowing the flapper to close and isolating the top of the well from the reservoir fluids below. The sealing and opening function of the safety valve can be lost due to different factors such as scale build-up or control line pressure failures. DHSV failures can leave the flapper stuck open, prevent proper sealing when closed, or prevent any surface control of the flapper position. The case study presented in this paper describes an intervention with an electromechanical wireline shifting tool on a subsea well with a failed DHSV. The well had been shut in for several years due to the inability to function the safety valve open using control line pressure from surface. Due to it being a subsea well, the cost and complexity of intervention as well as the difficulty of diagnosis was significantly increased relative to dry tree wells on platforms and onshore. There were a number of hypotheses in place regarding the potential failure mechanism of the valve, but the primary theory was that the flow tube was stuck due to either corrosion or scale. The conventional form of intervention in this situation would be a slickline DHSV remediation package to treat, clean and physically shift the flow tube. However, slickline intervention has limitations due to the lack of real-time tool control or downhole measurement making diagnosis of the downhole condition difficult to impossible. As the failure cause was unknown, and efficiency was of especially high importance due to the subsea nature of the well and associated costs of intervention, a project was initiated to innovate on an existing electromechanical sleeve shifting tool to allow it to shift a safety valve flow tube. The electromechanical sleeve shifting tool has inbuilt sensors and control modules for shifting distance and force which would increase the efficiency of the intervention and provide critical downhole information on the failure mechanism of the valve. To enable smooth bore shifting of the DHSV flow tube, special friction grip pads had to be designed, as well as a custom clamp-on no-go for depth accuracy. This setup was then rigorously tested with high opening forces to assess whether there was any risk of flow tube deformation. In the case study, the smooth bore shifting configuration of the electro-mechanical sleeve shifting tool was successfully used to investigate the failed DHSV in the subsea well in the UK North Sea. This enabled surface tool control and feedback during the manipulation of the flow tube and direct measurement of the forces applied and distances that the flow tube was shifted. Realtime control and feedback were key to minimizing the risk of damage to the flow tube and allowed real-time decisions to be made. The wireline tool measurements clearly showed that the flow tube was free to move full stroke in both directions and indicated that the failure mechanism was likely in the control line. The unique design of the electro-mechanical sleeve shifting tool allowed the setting of the tool in "float" mode where it would measure displacement and force whilst being free to extend and retract. Surface pressure was exacted on the control lines, and the tool showed no movement or force downhole, indicating definitively that the failure mechanism lay with the surface control lines and allowing the operator to confidently plan the next intervention steps.
APA, Harvard, Vancouver, ISO, and other styles
10

Wrigley, P. A., P. Wood, S. O’Neill, R. Hall, and D. Robertson. "Module Design Layout and Equipment Analysis for Off-Site Prefabrication Manufacture and Assembly in a Small Modular Reactor." In 2020 International Conference on Nuclear Engineering collocated with the ASME 2020 Power Conference. American Society of Mechanical Engineers, 2020. http://dx.doi.org/10.1115/icone2020-16077.

Full text
Abstract:
Abstract Current large scale, generation 3 nuclear power plants (in the western world) are mostly expensive, delayed and over budget [1] [2]. Modularisation in industrial plants has shown cost savings of between 7–20% and schedule savings between 20–50% [3]. Small Modular Reactors (SMR) defined as “shop fabricated and then transported as modules to the sites for installation” [4] might enable further cost reductions and there are over 50+ SMR designs currently in development internationally. This paper establishes the module envelope constraints for road transportable factory built SMR Modules and analyses equipment data from a Pressurised Water Reactor (PWR) reactor for these module envelope constraints. The paper found that two tanks and a pump might need to be redesigned for road transport or they may be utilised as one off logistical operations, depending on costs. The 900MWe PWR reactor equipment items were then scaled to reflect a 450MWe plant [5], [6]. If the equipment items are scaled, all equipment would fit into the 5m module space envelope at least in one direction. It may be advantageous to redesign the two tanks. Finally, a simple Mixed Integer Linear Programming (MILP) modularisation optimisation was utilised to layout equipment into a (6 × 50 × 4.5m) module. The objective function was reduced from 14661 for the original Lapp (1989) plant to 2958 for the single module.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Optimisation de modèle de coûts"

1

Sripad, Pooja, Sara Dwyer, and Gloria Adoyi. Mise en œuvre des composantes du modèle ssp pour la PE / E au Nigéria : une analyse des coûts. Population Council, 2019. http://dx.doi.org/10.31899/rh11.1058.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Fent, Thomas, Stefan Wrzaczek, Gustav Feichtinger, and Andreas Novak. Fertility decline and age-structure in China and India. Verlag der Österreichischen Akademie der Wissenschaften, 2024. http://dx.doi.org/10.1553/0x003f0d14.

Full text
Abstract:
China and India, two Asian countries that experienced a rapid decline in fertility since the middle of the twentieth century, are the focus of this paper. Although there is no doubt that lower fertility levels have many positive effects on the economy, development and sustainability, little is known about the optimal transition from high to medium or even low levels of fertility. Firstly, implementing policies that have the potential to reduce fertility is costly. Secondly, additional costs arise from adapting the infrastructure to a population that fluctuates quickly not only in terms of size but also with respect to the age structure. We apply an intertemporal optimisation model that takes the costs and benefits of fertility decline into account. The optimal time path depends on the cost structure, the planning horizon and the initial conditions. In the case of a long planning horizon and high initial fertility, it may even be optimal to reduce fertility temporarily below replacement level in order to slow down population growth at an early stage. A key finding of our formal investigation is that, under the same plausible parameter settings, the optimal paths for China and India differ substantially. Moreover, our analysis shows that India, where the fertility decline emerged as a consequence of societal and economic developments, followed a path closer to the optimal fertility transition than China, where the fertility decline was state-imposed. The mathematical approach deployed for this analysis provides insights into the optimal long-term development of fertility and allows for policy conclusions to be drawn for other countries that are still in the fertility transition process.
APA, Harvard, Vancouver, ISO, and other styles
3

Langlais, Pierre-Carl. Economie de la science ouverte. Comité pour la science ouverte, 2024. https://doi.org/10.52949/64.

Full text
Abstract:
La science ouverte a considérablement réduit les coûts de la publication scientifique. D’après une étude de 2021, les frais de l’édition commerciale en libre accès représentent 55 % du prix de chaque article scientifique accessible par abonnement standard : cette proportion est nettement plus faible pour la version non commerciale, avec un maximum de 10 % du prix. Beaucoup d’activités liées à l’édition, comme les ventes, la tarification ou le marketing, ne sont plus nécessaires. Le développement des services partagés et des logiciels libres a également contribué à réduire les frais techniques. La science ouverte s’articule autour de modèles économiques multiples qui ne se limitent pas à l’édition commerciale : les infrastructures publiques, les ressources communes, les communautés autonomes et les sociétés savantes jouent toutes un rôle clé dans son écosystème. De tout temps, les revues et autres institutions académiques (comme les sociétés savantes) ont favorisé un modèle de « club du savoir » dans lequel les publications sont gérées comme un service communautaire pour le bénéfice particulier des auteurs. Durant la seconde moitié du XXe siècle, les structures sans but lucratif ont été absorbées ou supplantées par de très grands éditeurs commerciaux tels qu’Elsevier, Springer ou Wiley. Le développement de la science ouverte est venu remettre en cause la domination des modèles centrés sur l’éditeur. Les leaders du secteur ont commencé à basculer vers la formule « auteur-payeur ». Plus récemment, les « accords transformants » ont créé un vaste marché privé de la science ouverte. En parallèle, l’émergence d’un mouvement mondial de libre accès aux informations de recherche a entraîné le développement de communs de la science ouverte, avec des revues, des plateformes, des infrastructures et des référentiels de plus en plus structurés autour d’un écosystème partagé de services et de principes d’autogouvernance. La science ouverte offre d’importants avantages économiques et sociaux, puisque 65 à 90 % du public des plateformes ouvertes est constitué d’utilisateurs non universitaires. De nombreuses activités économiques dépendent de la littérature savante et des données scientifiques. On estime que le projet Génome humain a rapporté près de 800 milliards USD au niveau mondial, soit 200 fois son coût initial. Des enquêtes menées en 2011 auprès d’entreprises anglaises et scandinaves ont montré que la science ouverte dans son ensemble avait un impact positif sur la R&amp;D et accélérait le développement de nouveaux produits et projets. Au-delà des domaines commerciaux, la science ouverte a bénéficié à un large éventail d’acteurs sociaux, qu’il s’agisse d’ONG, de scientifiques citoyens ou de défenseurs de la santé.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!