Academic literature on the topic 'Comparaison des approches expérimentales et numériques'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Comparaison des approches expérimentales et numériques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Comparaison des approches expérimentales et numériques"

1

Talbot, Martin, Jean-François Laflamme, and Marc Savard. "Approches expérimentales et numériques pour l'analyse dynamique d'un pont routier." Revue Européenne de Génie Civil 9, no. 1-2 (January 2005): 187–214. http://dx.doi.org/10.1080/17747120.2005.9692750.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Talbot, Martin, Jean-françois Laflamme, and Marc Savard. "Approches expérimentales et numériques pour l'analyse dynamique d'un pont routier." Revue européenne de génie civil 9, no. 1-2 (February 28, 2005): 187–214. http://dx.doi.org/10.3166/regc.9.187-214.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Inal, K., and J. L. Lebrun. "Approches numériques et expérimentales du passage micro-macro dans des aciers austéno-ferritiques." Le Journal de Physique IV 08, PR4 (June 1998): Pr4–69—Pr4–74. http://dx.doi.org/10.1051/jp4:1998408.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

BENOIT, M., H. TOURNADRE, J. P. DULPHY, G. LAIGNEL, S. PRACHE, and J. CABARET. "Comparaison de deux systèmes d’élevage biologique d’ovins allaitants différant par le rythme de reproduction : une approche expérimentale pluridisciplinaire." INRAE Productions Animales 22, no. 3 (April 17, 2009): 207–20. http://dx.doi.org/10.20870/productions-animales.2009.22.3.3348.

Full text
Abstract:
Cette étude pluridisciplinaire de 4 ans réalisée en domaine expérimental a comparé deux systèmes d’élevage biologique d’ovins allaitants (118 brebis chacun), différant par le rythme de reproduction des brebis : une mise bas par brebis et par an (1/an), avec l’objectif d’une forte autonomie alimentaire vs 3 agnelages en 2 ans (3en2), avec l’objectif de maximiser le nombre d’agneaux produits par brebis. Les systèmes ont été évalués au travers du résultat économique, des performances et de la santé des animaux, ainsi que des niveaux d’autonomie fourragère et alimentaire. La productivité numérique par brebis a été en moyenne de 151% en 1/an et de 161,3% en 3en2, avec une plus grande variabilité en 3en2. La consommation de concentré a été plus élevée en 3en2 qu’en 1/an (+29%). La marge brute par brebis a été de 59€ en 3en2 vs 64€ en 1/an. Le taux de mortalité des agneaux et le niveau de parasitisme ont été plus élevés en 3en2 qu’en 1/an. La conformation des carcasses des agneaux, leur état d’engraissement et la couleur du gras de couverture ont été comparables entre les deux systèmes. Par contre, le poids de la carcasse et la fermeté du gras dorsal ont été inférieurs en 3en2 vs 1/an. L’intensification du rythme de reproduction n’a donc pas conduit à de meilleurs résultats économiques. La gestion du système 3en2 s’est révélée plus difficile, et ses résultats plus variables entre années. Au final, ce système d’élevage peut être considéré comme moins durable que le système classique non accéléré. Ce dernier a combiné des performances animales élevées et une meilleure autonomie alimentaire, facteurs déterminants des résultats technico-économiques, qui ont été, par ailleurs, supérieurs à ceux observés dans des fermes AB de la région.
APA, Harvard, Vancouver, ISO, and other styles
5

Pelletier, Hervé, Christian Gauthier, and Robert Schirrer. "Comportement à la rayure de surfaces de polymères : comparaison entre mesures expérimentales et simulations numériques." Mécanique & Industries 9, no. 4 (July 2008): 261–71. http://dx.doi.org/10.1051/meca:2008032.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Lacaze, J. "Formation des structures dans les fontes ferrito-perlitiques à graphite sphéroïdal : approches expérimentales, modélisation et simulations numériques." Revue de Métallurgie 93, no. 5 (May 1996): 641–56. http://dx.doi.org/10.1051/metal/199693050641.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

GUYOMARD, H., B. COUDURIER, and P. HERPIN. "Avant-propos." INRAE Productions Animales 22, no. 3 (April 17, 2009): 147–50. http://dx.doi.org/10.20870/productions-animales.2009.22.3.3341.

Full text
Abstract:
L’Agriculture Biologique (AB) se présente comme un mode de production agricole spécifique basé sur le respect d’un certain nombre de principes et de pratiques visant à réduire au maximum les impacts négatifs sur l’environnement. Elle est soumise à des interdictions et/ou des obligations de moyens, par exemple l’interdiction des Organismes Génétiquement Modifiés (OGM), des engrais de synthèse et des pesticides ou l’obligation de rotations pluriannuelles. Dans le cas de l’élevage, les critères portent sur l’origine des animaux, les conditions de logement et d’accès aux parcours, l’alimentation ainsi que la prévention et le traitement des maladies. Ainsi, la prévention des maladies est principalement basée sur l’utilisation de techniques d’élevage stimulant les défenses naturelles des animaux et, en cas de problème sanitaire, le recours à l’homéopathie ou à la phytothérapie ; l’emploi d’autres médicaments vétérinaires n’est pas exclu à condition de respecter des conditions réglementaires strictes1. L’AB s’inscrit dans des filières d’approvisionnement et de commercialisation incluant la transformation et la préparation des aliments, la distribution de gros et/ou de détail et le consommateur final. Dans tous les pays, agriculteurs, conditionneurs et importateurs doivent se conformer à des réglementations pour associer à leurs produits un étiquetage attestant de leur nature biologique. Les produits issus de l’AB sont certifiés et des mécanismes d’inspection assurent le respect des règlements. L’AB mondiale est aujourd’hui encore une activité marginale au regard des terres consacrées (moins de 2%), du nombre d’agriculteurs engagés ou des volumes concernés. Il s’agit toutefois d’une activité en forte croissance avec, par exemple, un triplement des surfaces mondiales dédiées entre 1999 et aujourd’hui. Le marché mondial des produits issus de l’AB était estimé à 25 milliards d’euros en 2006, soit deux fois plus qu’en 2000 (données IFOAM). La consommation est très fortement concentrée, à plus de 95% en Amérique du Nord d’une part, et en Europe de l’Ouest où les principaux marchés sont l’Allemagne, l’Italie, la France et le Royaume-Uni, d’autre part. Sur ces deux continents, les importations sont nécessaires pour pallier le déficit de l’offre domestique au regard de la demande intérieure. Ceci est particulièrement vrai en France. Selon le ministère en charge de l’agriculture (2009), «la demande [française] de produits issus de l’AB croît de 10% par an depuis 1999. Or, l’offre [nationale] de produits issus de l’AB est aujourd’hui insuffisante pour satisfaire cette demande croissante. Les surfaces des 11 970 exploitations agricoles françaises en AB ne représentent que 2% de la surface agricole. Par défaut d’organisation entre les producteurs et à cause de l’éparpillement des productions, une part significative des produits bio n’est pas valorisée». Et simultanément, 25% environ de la consommation française de produits bio est satisfaite par des importations. Cette situation a conduit le Ministre en charge de l’agriculture à proposer, dans le cadre du Grenelle de l’environnement, un plan visant le triplement à l’horizon 2012 des surfaces françaises en AB (6% de la surface agricole utile en 2012). Pour atteindre cet objectif, le plan inclut un soutien budgétaire à la structuration de la filière bio (sous la forme d’un fonds de structuration doté de 15 millions d’euros sur cinq ans), la mobilisation de la recherche (notamment sous la forme de crédits «recherche»), un soutien accru aux exploitations converties en AB (via le déplafonnement des 7 600 €/an/unité des aides agro-environnementales pour les exploitations en conversion vers l’AB et une augmentation de l’enveloppe dédiée, ainsi que la reconduction du crédit d’impôt en 2009, celui-ci étant par ailleurs augmenté) et enfin, l’obligation dès 2012 faite à la restauration collective de proposer dans ses menus 20% de produits issus de l’AB. Enfin, dans le cadre du bilan de santé de la Politique Agricole Commune (PAC) du 23 février 2009, une aide spécifique aux exploitations en AB d’un montant d’un peu moins de 40 millions d’euros a été adoptée. Le plan français en faveur de l’AB, popularisé sous le libellé «AB : objectif 2012», vise donc à développer la production domestique de produits issus de l’AB via la fixation d’un objectif quantitatif en termes de surfaces dédiées en jouant simultanément sur la demande (via une contrainte d’incorporation de produits issus de l’AB dans la restauration collective) et l’offre (via, de façon générale, un soutien augmenté aux exploitations en conversion vers l’AB et déjà converties à l’AB). Dans ce contexte, le comité éditorial de la revue Inra Productions Animales et la direction de l’Inra ont souhaité apporter un éclairage scientifique sur les acquis, les verrous et les perspectives en matière d’élevage AB. Ce numéro a été coordonné par J.M. Perez avec l’aide de nombreux relecteurs : que tous soient ici remerciés. Après une présentation du cahier des charges français et de la réglementation communautaire (Leroux et al), le numéro se décline en trois parties : une série d’articles sur différentes filières animales concernées (avicole, porcine, bovine allaitante, ovine allaitante), un focus sur deux approches à l’échelle des systèmes d’élevage (ovin allaitant et bovin laitier), et enfin des articles centrés sur les problèmes les plus aigus rencontrés dans le domaine de la gestion sanitaire et de la maitrise de la reproduction. L’article conclusif de Bellon et al fait le point sur les principales questions de recherche qui demeurent. En aviculture (Guémené et al), à l’exception de l’œuf, la production bio reste marginale, mais les filières sont bien organisées. Cette situation résulte d’une relative synergie avec les filières label rouge, avec lesquelles elles partagent plusieurs caractéristiques (types génétiques, longue durée d’élevage, parcours). Des difficultés multiples subsistent néanmoins. La production bio est pénalisée par le manque de poussins AB, des difficultés de maintien de l’état environnemental et sanitaire des parcours, la rareté de l’aliment bio et la difficulté d’assurer l’équilibre en acides aminés des rations (pas d’acides aminés de synthèse), élément susceptible d’expliquer la surmortalité constatée en pondeuse (liée à des problèmes comportementaux). Par suite, les performances sont inférieures à celles de l’élevage conventionnel (augmentation de la durée d’élevage et de l’indice de conversion) et l’impact environnemental, bien qu’amélioré quand il est rapporté à l’hectare, est moins favorable quand il est mesuré par unité produite, à l’exception notable de l’utilisation de pesticides. Prunier et al aboutissent aux mêmes conclusions dans le cas de la production de porcs AB. Relativement au conventionnel, les contraintes sont fortes sur le plan alimentaire (rareté de l’aliment AB, problème d’équilibre en acides aminés des rations) et de la conduite d’élevage (interdiction ou limitation des pratiques de convenance, âge des animaux au sevrage de 40 jours, difficultés de synchronisation des chaleurs et des mises bas, limitation des traitements vétérinaires). Ces contraintes et la grande diversité des élevages de porcs AB se traduisent par une forte variabilité des performances en termes de survie, reproduction, composition corporelle ou qualité des produits : autant de critères qu’il conviendra de mieux maîtriser à l’avenir pour assurer la pérennité de l’élevage porcin AB. Les performances zootechniques et économiques de l’élevage bovin allaitant bio sont abordées dans l’article de Veysset et al à partir d’un échantillon limité d’exploitations situées en zones défavorisées. Les caractéristiques des unités AB diffèrent peu de celles de leurs voisines en élevage conventionnel ; avec un chargement à l’hectare plus faible mais une plus grande autonomie alimentaire, les résultats techniques des élevages AB sont proches de ceux des élevages conventionnels et ce, en dépit d’une moindre production de viande vive par unité de bétail, en raison d’un cycle de production en moyenne plus long. Sur le plan économique, les charges plus faibles (pas de traitements antiparasitaires, pas de vaccinations systématiques) ne suffisent pas à compenser un moindre produit à l’hectare. Un verrou majeur est le déficit de gestion collective de la filière verticale (absence totale de débouché en AB pour les animaux maigres, en particulier) qui se traduit par un problème aigu de sous-valorisation puisque dans l’échantillon enquêté 71% des animaux sont vendus sans signe de qualité : nul doute qu’il s’agit là d’une priorité d’action. En élevage ovin (Benoit et Laignel), également sur la base d’un échantillon malheureusement restreint, les différences de performances techniques et économiques des élevages conventionnels versus bio varient sensiblement selon la localisation géographique, plaine ou montagne ; il est de ce fait difficile (et dangereux) de dégager des enseignements généraux valables pour l’élevage bio dans son ensemble. L’étude détaillée des adaptations des systèmes d’élevage aux potentialités agronomiques réalisée sur quatre fermes expérimentales montre néanmoins le rôle clé de la variable «autonomie alimentaire». Par suite, la situation économique des élevages ovins bio est plus difficile en zone de montagne où l’autonomie alimentaire, voire fourragère, est moindre (l’achat des aliments non produits sur l’exploitation représente 41% du prix de vente des agneaux dans l’échantillon enquêté). In fine, cela suggère que la variabilité des performances de l’élevage ovin bio, de plaine et de montagne, dépend plus du coût de l’aliment et de la valorisation des agneaux que de la productivité numérique. L’article de Benoit et al porte également sur l’élevage ovin biologique, plus précisément la comparaison de deux systèmes ovins allaitants AB différant par le rythme de reproduction des animaux. Cela montre que les performances de l’élevage ovin AB ne s’améliorent pas quand le rythme de reproduction est accéléré, le faible avantage de productivité numérique ne permettant pas de compenser l’augmentation des consommations d’aliments concentrés et la moindre qualité des agneaux. Au final, cela illustre la plus grande difficulté à piloter le système AB le plus intensif. L’article de Coquil et al relève aussi d’une approche systémique appliquée cette fois à l’élevage bovin laitier. Il porte sur l’analyse d’un dispositif original de polyculture-élevage mis en place à la Station Inra de Mirecourt reposant sur la valorisation maximale des ressources du milieu naturel et accordant une importance première à l’autonomie en paille et à la culture des légumineuses (protéagineux, luzerne). Le cheptel valorise les produits végétaux (prairies et cultures) et assure la fertilisation des parcelles en retour. L’autonomie alimentaire étant privilégiée, les effectifs animaux sont une variable d’ajustement, situation plutôt inhabituelle par comparaison avec des élevages laitiers conventionnels qui cherchent en premier lieu à maintenir les cheptels et les capacités de production animale. Les premiers retours d’expérience suggèrent une révision du dispositif en maximisant les synergies et les complémentarités plutôt que de considérer que l’une des deux activités, la culture ou l’élevage, est au service de l’autre. Cabaret et al proposent un éclairage sur les problèmes sanitaires en élevage biologique. Sur la base, d’une part, d’une analyse des déclaratifs des acteurs de l’élevage, et, d’autre part, d’évaluations aussi objectivées que possible, les chercheurs montrent qu’il n’y aurait pas de différence notable entre l’AB et le conventionnel sur le plan des maladies infectieuses et parasitaires (nature, fréquence). La gestion de la santé des cheptels AB repose davantage sur l’éleveur que sur les prescripteurs externes auxquels il est moins fait appel, et sur une planification sanitaire préalable privilégiant la prévention et une réflexion de plus long terme sur la santé globale du troupeau, l’ensemble des maladies qui peuvent l’affecter, etc. La planification n’est pas uniquement technique. Elle requiert aussi l’adhésion des éleveurs. De fait, l’enquête analysée dans cet article relative aux élevages ovins allaitants met en lumière l’importance de ces aspects individuels et culturels sur la gestion de la santé en élevage biologique. Les alternatives aux traitements anthelminthiques en élevage ruminant AB font l’objet de nombreux travaux (Hoste et al). Différents moyens de lutte contre les parasitoses sont mis en œuvre : gestion du pâturage de façon à limiter le parasitisme helminthique (rotations, mise au repos, assainissement), augmentation de la résistance de l’hôte (génétique, nutrition, vaccination), et traitements alternatifs des animaux infectés (homéopathie, phytothérapie, aromathérapie). Les protocoles d’évaluation objective de ces traitements alternatifs posent des problèmes méthodologiques non totalement résolus à ce jour. Mais traiter autrement, c’est aussi réduire le nombre de traitements anthelminthiques de synthèse via un emploi plus ciblé (saison, catégories d’animaux). Au total, de par la contrainte du cahier des charges à respecter, l’élevage biologique a recours à l’ensemble des moyens de lutte contre les maladies parasitaires. Dans le cadre de cette approche intégrée de la santé animale, l’élevage biologique peut jouer un rôle de démonstrateur pour l’ensemble des systèmes d’élevage concernés par le problème de la résistance et des alternatives aux anthelminthiques utilisés à grande échelle. Même si la réglementation n’impose pas de conduites de reproduction spécifiques en élevage AB, elle contraint fortement les pratiques, notamment l’utilisation des traitements hormonaux. L’impact de ces contraintes est particulièrement fort en élevage de petits ruminants (où le recours à des hormones de synthèse permet l’induction et la synchronisation des chaleurs et des ovulations) et en production porcine (où la synchronisation des chaleurs et des mises bas est très pratiquée). Néanmoins, Pellicer-Rubio et al rappellent que des solutions utilisées en élevage conventionnel peuvent également être mobilisées en élevage biologique, l’effet mâle et les traitements photopériodiques naturels notamment, et ce dans toutes les filières, en particulier celles fortement consommatrices de traitements hormonaux. De façon générale, les marges de progrès sont encore importantes et les solutions seront inévitablement multiformes, combinant diverses techniques selon une approche intégrée. Ici aussi, l’AB veut être valeur d’exemple, en particulier dans la perspective d’une possible interdiction des hormones exogènes en productions animales. L’article de Bellon et al conclut le numéro. Il met l’accent sur quatre thématiques prioritaires de recherche à développer, à savoir 1) la conception de systèmes d’élevage AB, 2) l’évaluation de l’état sanitaire des troupeaux et le développement d’outils thérapeutiques alternatifs, 3) la maîtrise de la qualité des produits et 4) l’étude des interactions entre élevage AB et environnement. A ces quatre orientations, on ajoutera la nécessité de recherches sur l’organisation des filières, la distribution, les politiques publiques, etc. dans la perspective de différenciation et de valorisation par le consommateur des produits issus de l’élevage biologique. Dans le droit fil de ces conclusions, l’Inra a lancé, ce printemps, un nouvel appel à projets de recherche sur l’AB dans le cadre du programme dit AgriBio3 (programme qui prend la suite de deux premiers programmes également ciblés sur l’AB). Les deux grandes thématiques privilégiées sont, d’une part, les performances techniques de l’AB (évaluation, amélioration, conséquences sur les pratiques), et, d’autre part, le développement économique de l’AB (caractérisation de la demande, ajustement entre l’offre et la demande, stratégie des acteurs et politiques publiques). Ce programme, associé à d’autres initiatives nationales (appel à projets d’innovation et de partenariat CASDAR du ministère en charge de l’agriculture) et européennes (programme européen CORE Organic en cours de montage, suite à un premier programme éponyme), devrait permettre, du moins nous l’espérons, de répondre aux défis de l’AB, plus spécifiquement ici à ceux de l’élevage biologique. Un enjeu important est aussi que les innovations qui émergeront de ces futurs programmes, tout comme des travaux pionniers décrits dans ce numéro, constituent une source d’inspiration pour faire évoluer et asseoirla durabilité d’autres formes d’élevage.
APA, Harvard, Vancouver, ISO, and other styles
8

GAIGNON, J. L. "Avant-propos." INRAE Productions Animales 17, no. 3 (July 29, 2004): 159–60. http://dx.doi.org/10.20870/productions-animales.2004.17.3.3585.

Full text
Abstract:
La pisciculture est une des activités de production animale parmi les plus diversifiées pour ce qui est des écosystèmes concernés et des niveaux d’intensification, voire la plus diversifiée en terme de nombre d’espèces élevées. Cependant, quelques dizaines d’espèces seulement permettent des productions majeures (FAO 2002). La tendance à une diversification croissante peut s’expliquer par différentes raisons : - multiplicité des écosystèmes colonisés et, en particulier, développement de la pisciculture marine ; - réponse à la demande récente du marché pour une diversification des produits allant d’une offre pour marchés «niche» de connaisseurs jusqu’à la mise à disposition de matières premières destinées à la transformation sous toutes ses formes - nécessité de disposer des espèces les mieux adaptées à la diversité des environnements aquatiques et aux nouvelles techniques d’élevage, mais aussi de répartir les risques pathologiques. Toutes les analyses et prospectives identifient comme forte cette tendance à accroître le nombre d’espèces élevées, la traduisant parfois comme une demande prioritaire (Anonyme 2002). Pour accompagner cette évolution, la communauté scientifique a généralement mis en œuvre des démarches de zootechnie expérimentale à partir de quelques espèces de poissons prises comme modèles biologiques. Cette démarche apparaît cependant vite répétitive et atteint d’autant plus ses limites que le nombre d’espèces concernées est important. Des méthodes ont été proposées afin de rendre plus rationnel, et donc plus fiable, le choix d’espèces pouvant faire l’objet de travaux scientifiques (Quéméner et al 2002). Cependant, lorsque la candidature à l’élevage d’une nouvelle espèce est retenue, que ce soit par des méthodes d’analyse rigoureuses ou de manière plus empirique, les démarches zootechniques et expérimentales classiques ne sont plus considérées comme originales et sont de plus en plus difficilement valorisables, d’un point de vue scientifique, jusqu’à ne plus être du ressort des institutions de recherche publiques, mais plutôt de celui de centres techniques (Itavi, Agences régionales de développement, certaines structures d’enseignement …). Dans ce contexte, la manière dont doit être traitée la question de la diversification des espèces en pisciculture mérite d’être approfondie pour les raisons suivantes : - dans le cas d’espèces « nouvelles » pour la pisciculture, aucune expérience zootechnique, par essence même, n’existe et généralement très peu de connaissances de nature biologique sont disponibles. Développer de manière systématique des approches classiques pour ces espèces peut nécessiter des moyens de recherche-développement assez considérables ; - l’importance du champ d’investigation incite au choix d’espèces - modèles ou à la mise en œuvre d’approche générique permettant d’apporter des réponses avec une vision et des retombées les plus étendues possibles ; - l’élaboration de méthodes rationnelles, optimisées et généralisables devrait permettre d’accélérer un processus de domestication contrôlé, alors qu’aujourd’hui ce processus est plutôt constaté a posteriori ; - les travaux d’intérêt piscicole à mener présentent l’originalité de permettre une analyse comparée d’animaux en cours de domestication avec les souches sauvages fondatrices restant souvent disponibles. Les articles de ce numéro spécial s’inscrivent dans cette réflexion. Ils font suite à des communications présentées lors d’un séminaire « Diversification - Domestication » organisé à Nantes les 24 et 25 juin 2003 par l’Inra en collaboration avec l’Ifremer. Reposant sur la confrontation des expériences, son objet était d’explorer l’intérêt et la faisabilité de recherches génériques sur la diversification des espèces de poissons, passant par l’identification d’espèces cibles et modèles, l’analyse des processus biologiques impliqués dans la domestication et l’élaboration de méthodes comparatives pertinentes. Une réflexion sur les systèmes de production - exploitation est menée en parallèle de manière complémentaire. Une première session était consacrée à la notion de domestication (à quel moment peut-on considérer qu’une espèce est domestiquée ? Qu’est-ce que le processus de domestication ?) et aux critères qui caractérisent une espèce domestiquée par comparaison à la population sauvage d’origine. Une autre manière d’aborder la domestication (session II) est d’identifier ce que certaines espèces animales ont vécu «entre les mains» de l’homme. Au-delà de l’aléatoire et de l’empirisme, existe-t-il des procédures ou des stratégies convergentes de domestication (capture, échantillonnage, mise en élevage, ajustements des facteurs zootechniques, maîtrise de telle ou telle fonction, sélection ...) ? L’examen de convergences dans les stratégies de domestication au travers d’exemples portant sur différentes filières de production peut nous permettre d’en faire l’analyse. La mise en œuvre d’approches génériques nécessite de disposer d’espèces modèles pour aborder les possibilités et les contraintes de la domestication chez les poissons. Ceci passe par l’identification de groupes d’espèces ayant des caractéristiques communes et ce pour chacune des fonctions physiologiques susceptibles de répondre à un effort de domestication et/ou de conditionner sa réussite. Si des typologies académiques existent dans la littérature, la session III se voulait davantage une réflexion sur l’établissement de typologies «fonctionnelles» des espèces, fondées sur une démarche comparative et l’utilisation d’exemples concrets de domestications réussies, en cours ou envisageables. Dans le cas des poissons, une domestication envisagée a priori passe, en particulier pour les espèces «nouvelles », par le prélèvement d’un échantillon du génotype sauvage et, dans la situation la plus contrôlée, par la reproduction et la multiplication du noyau fondateur, enrichi ou non par des apports complémentaires issus du milieu naturel. La session IV abordait la question du choix initial, puis de la gestion d’un génotype dans une démarche de domestication.
APA, Harvard, Vancouver, ISO, and other styles
9

Curet, Sebastien. "Procédés de chauffage par micro-ondes : approches expérimentales et numériques des interactions avec les produits alimentaires." Science et technologie des aliments 2, no. 1 (2019). http://dx.doi.org/10.21494/iste.op.2021.0676.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Pensieroso, Luca, and Michel De Vroey. "Focus 25 - juin 2020." Regards économiques, July 16, 2020. http://dx.doi.org/10.14428/regardseco2020.06.04.01.

Full text
Abstract:
En décembre 2019, les membres de Rethinking Economics Belgium (dorénavant REB) ont diffusé un rapport intitulé “Dix ans après la crise, faut-il changer la formation des futurs économistes ?”. Ce rapport présente les résultats d’une enquête statistique réalisée auprès d’un échantillon d’étudiants bacheliers en sciences économiques en Fédération Wallonie-Bruxelles entre 2016 et 2017. Ses auteurs y déplorent que l’enseignement des sciences économiques est presque exclusivement centré sur l'approche néoclassique alors que celle-ci, selon eux, souffre d'un biais en faveur de l'idéologie néolibérale. Stigmatisant cette situation comme un manque de pluralisme, le rapport avance un certain nombre de propositions de réforme de l’enseignement et de la recherche en économie. Nous accueillons ce rapport comme une belle opportunité de disputatio et c'est dans cet esprit que notre note a été écrite. Bien que selon nous le rapport comporte plusieurs défauts méthodologiques, notre intention dans cette note est de nous limiter à l’essentiel en proposant une interprétation différente du phénomène que les auteurs du rapport appellent la «domination de la théorie néoclassique» et en défendant l’idée que la question du pluralisme en économie gagne à être abordée d’une manière différente. Une domination néoclassique ? L’approche néoclassique est un courant de la pensée économique qui vit le jour dans le dernier quart du 19ème siècle. Ses piliers sont la notion d'équilibre et la théorie subjective de la valeur, enracinée dans une perspective d'individualisme méthodologique et fondée sur les concepts d’utilité marginale et de productivité marginale*. Les auteurs du document de REB rattachent sa “domination” dans l’enseignement au fait qu’elle existe “quasiment sans partage” dans la recherche. En d’autres termes, elle y occupe le statut de “mainstream”. La notion de mainstream se rencontre fréquemment dans la littérature économique – ainsi que dans le rapport de REB – mais elle est souvent définie d’une manière vague. Dans un article récent (De Vroey et Pensieroso 2020), nous avançons la thèse que cette notion n’est intéressante que si on lui donne un fondement méthodologique au lieu de se contenter de la rattacher à une simple prépondérance statistique. Dans cette vue, une situation de mainstream n’existe que si un consensus s’établit sur des critères méthodologiques considérés comme des sine qua non pour une bonne pratique scientifique. Dans notre article, nous montrons que trois types de situations se sont succédés au cours du 20ème siècle. La première est un état d’absence de mainstream. Elle a perduré jusque dans les années 1980. Ces dernières ont vu l’émergence d’un mainstream en économie théorique, qu’il s’agisse de travaux de pure théorie ou de travaux combinant théorie et mesure empirique. C’est la seconde situation. Elle a émergé à la croisée de deux évolutions distinctes. La première est l’extension à différents champs de l’économie de trois principes méthodologiques déjà en vigueur en théorie des jeux et en microéconomie: (i) le rôle-pivot donné au concept d’équilibre, (ii) la modélisation mathématique et (iii) le caractère micro-fondé de l’analyse, à savoir l’exigence que les fonctions de demande et offre agrégées soient explicitement dérivées des règles de comportement optimisateur suivies par les agents économiques. Une telle extension s’est produite plus ou moins simultanément et d’une manière non-coordonnée dans différentes disciplines comme par exemple la macroéconomie et l’économe industrielle. A son origine, on trouve une insatisfaction quant aux principes méthodologiques en vigueur antérieurement. La seconde évolution est le phénomène général de certification qui a graduellement imprégné nos sociétés pour prendre son plein essor avec l’émergence de l’internet – l’attribution de brevets de qualité et la construction d’échelles appréciatives permettant de classer des objets ou des expériences diverses en fonction de leur excellence. Dans ce contexte, les revues scientifiques, en plus de leur rôle d’instrument de diffusion de la recherche, ont commencé à fonctionner comme organes de certification, séparant les articles respectant les standards méthodologiques de ceux qui ne les respectent pas et sont dès lors écartés. L’effet de cette double transformation se résume en quelques chiffres ayant trait au contenu des articles publiés dans les quatre principales revues économiques (American Economic Review, Econometrica, Journal of Political Economy et Quarterly Journal of Economics) dans les périodes 1970-1990 et 1990-2010. Alors que les articles respectant les trois choix méthodologiques précités représentaient 38 % du total des articles publiés en 1970, en 1990 ils en représentaient 67 % et en 2010 69 %. Nous interprétons ces chiffres comme offrant une indication claire de l’émergence d’un mainstream dans le champ théorique entre 1970 et 1990. Par contre durant cette période, aucun consensus méthodologique n’existait en ce qui concernait les travaux faisant une contribution exclusivement empirique, l’économie appliquée. Mais ce qui n’était pas vrai en 1990 l’est devenu au cours de la première décennie de ce siècle. La situation actuelle se caractérise par la montée en puissance de l’‘économie expérimentale’, ce terme étant entendu dans un sens large comme le commun dénominateur (i) des expériences comportementales de laboratoire, (ii) des randomized controlled trial et (iii) des ‘expériences naturelles’.** Le premier de ces courants résulte de l’adoption par un groupe d’économistes de protocoles expérimentaux propres aux psychologues cognitifs dans le but de justifier le remplacement de l’hypothèse de comportement optimisateur par des hypothèses plus réalistes. Le succès venant, cette démarche est maintenant connue sous le nom d’‘économie comportementale’. Le second découle de l’adoption par des économistes du développement de techniques expérimentales en usage en épidémiologie et centrées sur une confrontation entre groupe de traitement et de groupe de contrôle (cfr. Parienté 2016). Quant aux études d’expériences naturelles, elles consistent à exploiter «des situations où les forces de la nature ou des politiques étatiques semblent avoir conspiré pour produire un environnement proche de celui sur lequel les randomized trials se penchent» (Angrist and Krueger 2001 : 73). Les méthodes adoptées en économie expérimentale au sens large ont eu un impact majeur sur l’économie appliquée. Une nouvelle manière de la concevoir, marquant une triple rupture par rapport à l’économie appliquée traditionnelle, s’est dégagée. On y observe :i) Une émancipation à l’égard des impératifs méthodologiques imposés par les économètres théoriques. Le recours à des outils économétriques plus simples en est la conséquence (cfr. Angrist et Peschke 2017).ii) Une adhésion à la ‘révolution causale’ avec, comme corolaire, un résultat de rétrécissement de l’objet d’étude. L’explanandum est une question concrète et spécifique ayant souvent une incidence politique immédiate; l’explanans est une cause unique. A titre d’exemple, citons l’étude de Dal et Krueger (2002) visant à répondre la question, le fait d’être diplômé d’une université prestigieuse au minerval élevé plutôt que d’une université moins prestigieuse et moins chère génère-t-il une différence de revenu significative une vingtaine d’année après l’obtention du diplôme ?iii) Le recours à des instruments statistiques - telles que les variables instrumentales, la stratégie de double différence ou les discontinuités de régression - visant à éliminer les biais de sélection ou d’omissions et dont les règles de bon usage font l’objet d’un consensus à l’intérieur de la communauté des économistes appliqués. Le mainstream théorique se voit ainsi complété par un mainstream empirique fondé sur des règles méthodologiques régissant chacune de trois composantes de l’économie expérimentale. De nos jours, il y a donc deux manières d’appartenir au mainstream. La première résulte d’une définition méthodologique de ce qui est considéré être une bonne pratique théorique, la seconde d’une définition méthodologique de ce qui est considéré être une bonne pratique empirique. Notre analyse sur le débat ouvert par le rapport REB a deux retombées. En premier lieu, on peut se demander si mainstream et approche néoclassique coïncident. A strictement parler, cela n’est pas le cas. D’abord, la théorie des jeux est une composante du mainstream qui ne peut être identifiée à l’approche néoclassique. Ensuite, il y a des travaux néoclassiques qui se trouvent être exclus du mainstream - la théorie autrichienne, parce qu’elle n’adopte pas le langage mathématique, et les études néoclassiques qui n’adoptent pas la démarche de micro-fondements. Enfin, en 2010, la part du mainstream empirique dans le total des deux mainstreams représentait 22 %. Or, par définition, aucun des articles qui en font partie n’appartient à l’approche néoclassique. Le tableau contemporain est donc bien plus riche et varié que ce qui est dépeint dans le rapport REB. La seconde question qui se pose du fait de l’existence d’un mainstream en économie porte sur l’interprétation de cette réalité. Il est clair que les tenants des approches écartées se sentent frustrés d’être exclus du mainstream avec toutes les conséquences professionnelles qui en découlent. Ils auront donc tendance à voir cette situation comme une régression par rapport à une situation antérieure plus satisfaisante car marquée du sceau du pluralisme. Par contre, les économistes dont les travaux s’inscrivent à l’intérieur des critères définissant le mainstream peuvent avancer l’idée que l’unification de la discipline autour de critères méthodologiques clairs et nets est un signe de progrès. En conséquence, la question de savoir si l’existence d’un mainstream est une régression ou la marque d’un progrès ne peut recevoir de réponse univoque. Une absence de pluralisme ? Trois stratégies s’offrent aux tenants de choix méthodologiques exclus du mainstream. La première (et la plus intéressante à nos yeux) est de centrer leur énergie sur le développement de leur paradigme préféré, comme si de rien n’était, dans le but d’en démontrer la fécondité explicative. La seconde vise à convaincre les tenants du mainstream que les choix de base sur lesquels ils reposent sont inadéquats. A notre avis, les chances de succès de cette seconde stratégie sont minimes si, comme nous le pensons, les révolutions théoriques trouvent en général leurs origines dans des faiblesses mises en avant par une critique interne. La troisième consiste à affirmer que l’existence même d’un mainstream est condamnable parce qu’il s’agit d’un manque de pluralisme. Comme ce point de vue occupe une place centrale dans le document REB, il mérite d’être passé au crible. A nos yeux, la justification qui en est donnée n’est pas convaincante. Le fait que l’exigence de pluralisme est d’une importance primordiale dans le domaine de la démocratie politique et de l’information n’implique pas que ceci soit aussi le cas pour la connaissance scientifique. Comme nous l’avons déjà évoqué plus haut, une unification paradigmatique peut être interprétée comme une marque de progrès. Il reste qu’en économie, peut-être plus que dans d’autres sciences, la question du pluralisme doit être posée. Mais, à nos yeux, elle doit l’être dans d’autres termes. Depuis Adam Smith jusqu’à nos jours, les économistes ont débattu de la meilleure manière d’organiser la société dans sa dimension économique. L’objet d’étude de la science économique est donc éminemment politique. D’ailleurs, les travaux économiques débouchent souvent, sinon toujours, sur des conclusions de politique économique. L’enjeu sous-jacent porte sur le rôle respectif de l’Etat et des forces de marchés dans le fonctionnement de l’économie. Schématiquement, trois visions du capitalisme sont en présence : une vision pleinement libérale (le laissez faire d’Hayek ou de Friedman), une vision marxiste et une vision que l’on peut qualifier de «libéralisme mitigé» ou de «libéralisme raisonné». Cette dernière, associée notamment au nom de Keynes, consiste en une défense de l’économie de marché allant de pair avec la réalisation qu’elle peut rencontrer des échecs de fonctionnement auxquels seules des interventions étatiques sont à même de remédier. L’accusation de manque de pluralisme serait pertinente s’il s’avérait que le mainstream théorique, tel que nous l’avons cerné dans la section précédente, est intrinsèquement partisan d’une seule vision, le plein libéralisme par exemple. Dans un article, publié dans les Regards Économiques en 2018, nous avons démontré que cela n’est pas le cas en nous centrant sur trois épisodes de l’histoire des théories économiques - une comparaison du cadre conceptuel de Marx et des économistes classiques, l’utilisation de la théorie walrasienne pour justifier le socialisme et les controverses entre keynésiens et monétaristes. Dans cette perspective, tant la théorie classique que la théorie néoclassique sont un langage qui peut être mis au service de visions du capitalisme différentes. L’existence d’un mainstream en économie n’est donc pas synonyme d’un manque de pluralisme en économie. * Cfr. De Vroey et Pensieroso (2018) pour plus de détails.** En témoignent les prix Nobel en économie décernés à D. Kahneman et V. Smith en 2002, à A. Roth en 2012, à R. Shiller en 2013, à R. Thaler en 2017 et à A. Banerjee, E. Duflo and M. Kremer en 2019. Références: Angrist, J. and A. Krueger (2001), “Instrumental Variables and the Search for Identification: From Supply and Demand to Natural Experiments.” Journal of Economic Perspectives. 15, No. 4 : 69-85. Angrist, J. and J-S. Pischke. 2009. Mostly Harmless Econometrics. An Empiricist's Companion. Princeton (N. J.) and Oxford, Princeton University Press. Dale, S. and Al Krueger. 2002. “Estimating the Payoff to Attending a More Selective College: An Application of Selection on Observables and Unobservables.” Quarterly Journal of Economics 117: 1491–1527. De Vroey M. et L. Pensieroso (2020), “Mainstream Economics. Its Rise and Evolution”, mimeo. De Vroey M. et L. Pensieroso (2018), “La question du pluralisme en économie. Une mise en perspective”, Regards Économiques, numéro 137. Parienté W. (2016), “Mesurer l'effet des politiques publiques : l'essor des évaluations aléatoires”, Regards Économiques, numéro 124. Rethinking Economics Belgium (2019), 10 ans après la crise : faut-il changer la formation des futur·e·s économistes ?
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Comparaison des approches expérimentales et numériques"

1

Letty, Camille. "Etude d'une flamme en V diphasique : Approches expérimentale et numérique." Rouen, 2008. http://www.theses.fr/2008ROUES036.

Full text
Abstract:
Cette étude porte sur des flammes en V, diphasiques, stabilisées dans un écoulement pseudo-laminaire ou modérément turbulent. Un support de combustible gazeux est également injecté pour aider à la stabilisation des flammes, en particulier en régime turbulent. Une approche expérimentale et une approche numérique (Simulation Numérique Directe) sont menées simultanément. Les mêmes outils de post-traitement sont utilisés pour traiter les résultats des expériences et des simulations. Expérimentalement, l'écoulement est caractérisé en terme de distribution en taille des gouttes (Malvern), propriétés de la turbulence (PIV), répartition qualitative de la vapeur de combustible (PLIF sur acétone) et distribution en température des gouttes (réfractométrie d'arc-en-ciel). Numériquement, l'écoulement gazeux est décrit par les équations de Navier-Stokes dans le cadre eulérien. Le couplage avec la phase liquide est de type two-way avec un solveur lagrangien pour les gouttes. La cinétique chimique dérive des résultats de chimie complexe issus de Chemkin (schéma cinétique de San Diego pour l'acétone auquel sont ajoutées les réactions d'oxydation de l'acétone). Le modèle de flamme épaissie (facteur d'épaississement et fonction d'efficacité) est utilisé, dans le cadre de la DNS à des fins d'analyse, pour permettre une réduction du maillage et un gain de temps de calcul. Les propriétés moyennes géométriques et locales de la flamme sont déterminées et analysées: morphologie des flammes, angle d'ouverture, variable de progrès, évolution du flame brush, courbure et cisaillement. L'angle d'ouverture de la flamme est utilisé pour caler les paramètres de la simulation. L'évolution de la température des gouttes devant le front de flamme est étudiée pour les différentes conditions de turbulence, selon les deux approches. Les données de la DNS sont utilisées pour développer une méthode de calcul du cisaillement, à partir des données expérimentales, selon la méthode tensorielle
This work deals with V-shaped two-phase flames stabilised in a pseudo-laminar or moderated turbulent flow. Some gaseous fuel is also injected to help turbulent flames stabilisation. An experimental approach and a numerical approach (Direct Numerical Simulation) are conducted simultaneously. The same tools are used for post-processing of experimental and numerical data. The flow is experimentally charaterised in term of droplet size distribution (Malvern), turbulent properties (PIV), qualitative fuel repartition (PLIF on acetone) and droplet temperature distribution (rainbow refractometry). The gaseous flow is numerically defined by Navier-Stokes equations in an eulerian framework. Two-way coupling is use to determine interaction of gaseous and liquid phases. A lagrangian solver is used for the dispersed phase. Chemical kinetics is derived from complex chemistry results computed with Chemkin (San Diego mechanism for n-heptane with acetone oxydation reactions). Flame front is artificially thickened (Flame thickness factor and efficiency function). This enables reduction of the mesh size which is time saving. Mean geometrical and local properties of the flame front are determined: morphology, flame angle, progress variable, flame brush evolution, curvature and strain rate. The mean flame angle is used to ajust DNS parameters. The evolution of the droplets mean temperature is presented for different turbulent conditions and from experimental and numerical approaches. DNS fields are used to develop a calculation method of strain rate from experimental data following tensorial method
APA, Harvard, Vancouver, ISO, and other styles
2

Crambuer, Romain. "Contribution à l'identification de l'amortissement : approches expérimentales et numériques." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2013. http://tel.archives-ouvertes.fr/tel-00957320.

Full text
Abstract:
Il est difficile de quantifier les dissipations d'énergie se produisant dans les ouvrages lors d'un séisme de manière réaliste, en particulier dans le cas de structures en béton armé. Ceci s'explique par la diversité des sources de dissipations. Classiquement, elles sont introduites dans la modélisation des structures sous la forme d'un amortissement global peu physique. Le problème qui se pose est de savoir comment prendre en compte l'amortissement de manière plus physique. Ces travaux visent à apporter des éléments de réponse à cette problématique. Pour cela, deux objectifs ont été poursuivis : le premier consiste à qualifier et quantifier expérimentalement les sources d'amortissement dues au béton, le second vise à développer une méthode de calcul, peu couteuse et permettant de modéliser le comportement global mais aussi l'amortissement de manière réaliste. Une campagne d'essais de flexion 3 points alternée a été réalisée afin de quantifier les mécanismes contribuant à l'amortissement. Cette campagne est effectuée sur des poutres saines mais également sur des poutres pré-endommagées. L'analyse des expériences a permis d'identifier différentes grandeurs physiques influençant l'amortissement. Cette campagne a été modélisée à l'aide de trois lois de comportements, une loi s'est révélée pertinente. La loi de comportement ainsi identifiée a permis de développer une modélisation simplifiée, en vue d'études probabilistes. Cette dernière est fondée sur une loi de comportement simple couplée à une actualisation de l'amortissement visqueux. Trois actualisations de l'amortissement ont été développées et confrontées à une campagne d'essais sismiques mono axiaux sur un poteau.
APA, Harvard, Vancouver, ISO, and other styles
3

Rupin, Matthieu. "Cavité réverbérante et résonateurs sub-longueur d'onde : approches numériques et expérimentales." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENY082/document.

Full text
Abstract:
Ce travail de thèse se décompose en deux parties. Tout d'abord, nous présentons une nouvelle technique de focalisation d'ondes avec un seul émetteur en cavité réverbérante (FIM) en profitant d'un algorithme inspiré du filtre inverse. Via l'étude expérimentale de cavités réverbérantes dans le domaine des ultrasons, nous démontrons la capacité du FIM à optimiser la focalisation quelle que soit le type de cavité (de type ergodique ou non). Dans une deuxième partie, la propagation d'ondes élastiques dans un système formé par un ensemble de tiges d'aluminium collées sur une plaque mince de même nature, est étudiée. Ces tiges (résonateurs quasi-ponctuels) sont arrangées de façon périodique ou aléatoire sur une échelle sub-longueur d'onde. Le métamatériau ainsi constitué révèle la présence de larges bandes de fréquences interdites. De plus, la coexistence de résonances de flexion et de compression dans les résonateurs, ajoutée à la présence d'une conversion d'une partie de l'énergie du mode A0 vers le mode S0 dans la plaque, crée une grande complexité du champ d'onde. C'est ce qui fait de ce type de métamatériau, des objets tout à fait singuliers à l'échelle mésoscopique
This thesis is divided into two parts. First, we present a new technique for focusing waves with one emitter in reverberant cavity (OCIF) inspired by inverse filter algorithm. Through the experimental study of reverberant cavities in the field of ultrasound, we demonstrate the ability of the OCIF to optimize the focusing no matter what type of cavity (ergodic type or not). In a second part, we investigate the propagation of elastic waves in a system formed by a set of aluminum rods glued to a thin plate of the same material. These rods form a set of quasi-punctual resonators in the propagation plane of waves. It is possible to arrange them periodically or randomly on a subwavelength scale. The metamaterial thus formed shows a complex wave field within it, including the presence of wide prohibited frequency ranges (bandgaps). The experimental and numerical approaches described in this manuscript show the existence of both flexural and compressional resonances in the resonators. Added to the presence of a conversion of a portion of the energy from the $A0$ Lamb mode to the $S0$ one in the plate, such a complexity makes this type of metamaterials, quite unusual objects at the mesoscopic scale
APA, Harvard, Vancouver, ISO, and other styles
4

Guinot, Florent. "Interactions houle-courant en bathymétrie variable : approches numériques et expérimentales." Brest, 2010. http://www.theses.fr/2010BRES2069.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Marais, Louise. "Caractérisation mécanique de la paroi artérielle pathologique : approches expérimentales et numériques." Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC0084.

Full text
Abstract:
Les pathologies vasculaires provoquent un remodelage de la paroi artérielle pouvant entraîner une modification de sa rigidité et de son comportement mécanique. L’objectif de cette thèse est de proposer des méthodes de caractérisation mécanique permettant d’identifier les changements de propriétés mécaniques artérielles dans le cadre de deux situations pathologiques : l’anévrysme de l’aorte abdominale (AAA) et l’hypertension artérielle (HTA). La première étude a consisté à évaluer in vitro les modifications de fonctionnalité de l’artère dans le cas d’un AAA obtenu par le modèle de xénogreffe chez le rat qui permet de reproduire certains aspects de la pathologie humaine et qui est utilisé pour la mise au point de thérapies cellulaires. Une analyse des variations régionales des propriétés mécaniques du tissu anévrysmal a d’abord été menée en effectuant des tests de traction sur anneaux d’AAA. Des tests d’extension-inflation ont ensuite été réalisés sur la structure vasculaire pour des conditions de chargement reproduisant celles observées in vivo. Dans chacun des cas, une méthode inverse couplée à un modèle numérique par éléments finis a été développée afin d’identifier les paramètres matériaux du tissu vasculaire. Dans la deuxième étude, la rigidité artérielle a été mesurée in vivo sur une population de patients atteints d’HTA et de sujets sains en utilisant deux méthodes non-invasives qui ont été développées et optimisées : l’imagerie ultrarapide de l’onde de pouls et l’élastographie par ondes de cisaillement de la paroi artérielle. Ces deux méthodes s’appuient sur un échographe ultrarapide. La vitesse de l’onde de pouls locale sur un segment de la carotide a ainsi pu être évaluée, ainsi que la vitesse de propagation d’ondes de cisaillement générées dans la paroi à plusieurs instants du cycle cardiaque. Les deux approches in vitro et in vivo ont ainsi permis d’évaluer certains changements de propriétés mécaniques de la paroi artérielle dans des cas pathologiques. Bien que tous les mécanismes biologiques de l’AAA et de l’HTA soient complexes, ce travail permet de contribuer à une meilleure compréhension des pathologies vasculaires pouvant ainsi aider au choix ou au développement de traitements adaptés, tant d’un point de vue pharmacologique que dans le cadre de nouvelles thérapies cellulaires
Vascular pathologies are generally accompanied by a remodeling of the arterial wall that may lead to modifications of its stiffness and mechanical behavior. The goal of this thesis is to propose methods of mechanical characterization allowing to detect the changes in arterial mechanical properties in the case of two pathologies: abdominal aortic aneurysm (AAA) and arterial hypertension (HTA). The first study consisted in evaluating in vitro the arterial functional modifications in the case of an AAA obtained by the rat xenograft model which reproduces several biological features of the human pathology and is used to develop cell therapies. First, the assessment of regional variations in mechanical properties of aneurysmal tissue was conducted by carrying out traction tests on rings from AAAs. Then, extension-inflation tests were conducted on the vascular structure for loading conditions replicating those observed in vivo. In each case, an inverse method associated with a numerical finite element model was developed to identify the material parameters of vascular tissue. In the second study, arterial stiffness was measured in vivo for a population of hypertensive patients and healthy subjects using two non-invasive methods which were developed and optimized: ultrafast imaging of the pulse wave and shear wave elastography of the arterial wall. These two methods are based on an ultrafast ultrasound scanner. Thus the local pulse wave velocity on a segment of the carotid artery was assessed, as well as the propagation speed of shear waves created in the arterial wall at several moments during the cardiac cycle. Both in vitro and in vivo approaches enabled to evaluate some changes in mechanical properties of the arterial wall in pathological cases. Although all the biological mechanisms of AAA and HTA are complex, this work provides a contribution to a better understanding of vascular pathologies and can thereby assist in the choice or development of adapted treatments, from both a pharmacological point of view, and within the context of new cell therapies
APA, Harvard, Vancouver, ISO, and other styles
6

Nguyen, Tuan Anh. "Approches expérimentales et numériques pour l'étude des transferts hygroscopiques dans le bois." Thesis, Limoges, 2014. http://www.theses.fr/2014LIMO0034/document.

Full text
Abstract:
Le développement des structures en bois en Génie Civil demande aujourd’hui de proposer aux gestionnaires d’ouvrages des outils de diagnostic et de monitoring pour suivre l’évolution des pathologies (flèches excessives, fissures, attaques biologiques, etc.) mais également pour contrôler l’humidité interne dans les éléments. Dans ce dernier contexte, le travail développé dans cette thèse concerne le développement d’un outil de caractérisation du champ hydrique dans des sections transversales d’éléments structuraux en bois. La méthode étudiée couple une mesure de résistivité, composée d’une tête de mesure (résistivimètre) associée à un grand nombre de sondes raccordées à un système multiplexé, et d’une méthode inverse implémentée dans un code aux éléments finis. Dans une première partie, il est étudié les techniques de caractérisation des propriétés de diffusion dans le matériau caractérisé par une orthotropie et un comportement non linéaire exploitant des mesures d’humidité moyenne (méthode gravitométrique) et des profils spatiaux par mesures gammadensimétriques. Il est montré que le couplage des deux mesures permet d’obtenir en finalité des propriétés intrinsèques rendant ainsi la méthode de caractérisation fiable et robuste. La seconde partie présente le développement d’un ensemble expérimental dans le but d’obtenir une cartographie 1D et 2D du champ hydrique dans une section transversale. La technique repose sur la généralisation des méthodes résistives multiplexées utilisées en géophysique dans l’étude des sols stratifiés à des géométries finies à 2 dimensions. L’algorithme employé est basé sur le couplage de mesures de résistivité multiplexées et d’une analyse inverse implémentée dans un code aux éléments finis. La solution 1D permet d’obtenir des profils spatiaux pouvant remplacer les mesures gammadensimétriques. Les profils 2D permettent, pour une section donnée, d’estimer le champ d’humidité interne en tout point et de proposer ainsi un suivi dans le temps des profils hydriques
In civil engineering constructions, the development of timber structures requires today to managers works some diagnostic tools and monitoring systems to monitor pathologies (excessive deflections, cracks, biological attack, etc.) but also to control moisture content in the element sections. In the last context, the proposed work in this PhD thesis is the development of a tool for characterization of the moisture content map in the cross sections of structural elements. Studied method is based on the resistivity measuring, comprising a measuring head (resistivity meter) associated with many connected probes in a multiplexed system, and an inverse method implemented in a finite element software. In the first part, it is studied the techniques of characterization of diffusion properties in wood samples characterized by orthotropic and nonlinear behaviors according to average moisture content measurements (gravimetric method) and spatial profiles gamma densitometer measures. It is shown that the coupling of the two measurements provides the intrinsic properties with more reliability and more robustness. The second part deals with the development of an experimental protocol in order to achieve 1D and 2D mapping of the moisture content field in a cross section. The technique is based on the generalization of multiplexed resistivity geophysical methods used in the study of stratified soils with 2-dimensional geometries. The algorithm is based on the coupling between the resistivity measurements and an inverse multiplexed analysis implemented in a finite element code. The 1D solution provides spatial profiles which can replace gamma densitometer measures. For a selected section, 2D profiles allow estimating the moisture content field at any point and thus provide a time tracking of moisture profiles
APA, Harvard, Vancouver, ISO, and other styles
7

Amaied, Emna. "Effet du vieillissement cutané sur la perception tactile : approches expérimentales et numériques." Lyon, Université de Lyon, 2016. http://www.theses.fr/2016LYSEE003.

Full text
Abstract:
L'objectif de cette thèse est d'étudier l'effet du vieillissement sur les propriétés viscoélastiques de la pulpe du doigt et sur la perception tactile. La maîtrise et la compréhension de la perception tactile liée à l'âge nécessitant un développement approfondi des approches innovantes en termes d'expérimentation et de simulation numérique. L'état de l'art sur le tissu cutané comme organe sensoriel est présenté. Afin d'évaluer l'effet de l'âge et du genre sur les propriétés mécaniques cutanées, un dispositif expérimental conçu et réalisé au sein du laboratoire a été utilisé. Il permet de solliciter la peau du doigt in vivo, avec une pression d'air contrôlée et d'identifier les paramètres viscoélastiques. Cette étude expérimentale a permis de mener une étude approfondie des propriétés mécaniques de la pulpe du doigt. L'étude expérimentale est accompagnée d'un modèle numérique axisymétrique bidimensionnel multicouche du doigt humain, afin de reproduire le test du fluage. Ce modèle a permis de calculer les méthodes d'élasticité instantanés de chaque couche de la pulpe du doigt par une approche inverse. Une étude expérimentale d'acuité tactile a été menée sur l'extrémité du doigt humain. Celle-ci montre un déficit de l'acuité tactile chez les personnes âgées. Afin de comprendre l'origine de ce déficit, une simulation numérique a été développée en tenant compte de l'effet de l'âge. Cette étude a permis d'identifier le seuil de l'acuité tactile de chaque groupe d'âge et de comprendre le fonctionnement des récepteurs sensoriels et leurs interactions avec le stimulus. L'étude de l'effet du vieillissement sur le toucher actif avec une approche expérimentale a été menée. Un dispositif innovant développé dans le laboratoire a été utilisé afin de quantifier le frottement dynamique et les vibrations induites lorsque le doigt humain explore une surface texturée. Ces vibrations sont à l'origine de l'excitation des récepteurs sensoriels et jouent un grand rôle dans la sensation du toucher actif. L'effet de l'âge s'est traduit par une baisse significative du niveau vibratoire. L'étude numérique menée dans le dernier chapitre a permis d'étudier pour la première fois le déficit dû au vieillissement en termes de résolutions verticale et spéciale de la texture d'une surface
The aim of this thesis is to study the effect of aging on the viscoelastic properties of the finger and the tactile perception. The understanding of tactile perception related to age requires further development of experimental and Numerical approaches. The skin tissue as sensory organ is presented. To asses the effect of age and gender effect, an xperimental device designed and producted in the laboratory is used. This device allows soliciting the skin of the finger in vivo, with a controlled air pressure and identifying the viscoelastic parameters. This expérimental study allowed calculating of the mechanical properties of the finger pad. The experimental study is accompanied with a multilayer axisymmetric two-dimensional FEM model of the human finger developed to reproduce the test creep. This model was used to calculate the instantaneous modulus of elasticity of each layer of the finger by a reverse approach. An experimental study of tactile acuity was conducted of the human finger. This shows a deficit of tactile acuity of aged subjects. This study identified the threshold of tactile acuity in each age group and allowed the understanding of the interactions of the sensory receptors with the stimulus. The study of the effect of aging on the active touch with an experimental approach was conducted. An innovative device developped in the laboratory, was used to quantify vibrations induced when a human finger explores a textured surface. These vibrations are the source of excitation of sensory receptors and have a big role in the sensation of active touch. The effect of age shows a significant decrease in vibration level. The numerical study in the last chapter was used to study for the first time the deficit due to aging in terms of vertical and special resolutions of textured surfaces
APA, Harvard, Vancouver, ISO, and other styles
8

Sinou, Jean-Jacques. "Dynamique non-linéaire des structures complexes, fixes et tournantes. Approches théoriques, numériques et expérimentales." Habilitation à diriger des recherches, Ecole Centrale de Lyon, 2007. http://tel.archives-ouvertes.fr/tel-00260913.

Full text
Abstract:
Le mémoire se focalise sur la dynamique non linéaire des structures fixes et tournantes à travers des approches théoriques et expérimentales. Les résultats de recherche sont illustrés à travers des applications industrielles variées.

Dans une première partie, le rôle joué par les phénomènes non-linéaires en dynamique des structures et le développement de méthodes non-linéaires sont illustrés à travers trois axes de recherche.
Le premier axe porte sur la stabilité et la dynamique non-linéaire des systèmes frottants. On se propose de déterminer les zones stables et instables, ainsi que les niveaux vibratoires lorsque le système dynamique non-linéaire est sujet à une instabilité de type flottement. Pour ce faire, des approches se basant sur des réductions et/ou approximations des solutions sont développées et validées sur des exemples industriels (freins automobile et aéronautique).
Le deuxième axe se focalise sur la détection des fissures dans les systèmes tournants et cherche à définir des critères de détection des fissures se basant sur les réponses dynamiques non-linéaires (résonances sous-harmoniques, ordres, orbites, interaction fissure-balourds,...). Des approches théoriques, numériques et expérimentales sont menées en parallèle afin de statuer sur la pertinence et la robustesse des critères proposés.
Le troisième axe s'intéresse à la problématique de la dynamique non-linéaire des systèmes mono et bi rotor à travers des approches numériques et expérimentales. Ces recherches proposent de statuer sur la prise en compte des phénomènes non-linéaires et de la modélisation des organes associés lors du dimensionnement des systèmes tournants à partir de l'étude du comportement vibratoire (diagramme de Campbell, réponses non-linéaires et orbites, évolution des ordres,...).

Dans un second temps, l'accent est porté sur les perspectives de recherches et sur les ouvertures scientifiques envisageables sur des thématiques transversales.
APA, Harvard, Vancouver, ISO, and other styles
9

Compère, Fabrice. "Transport et rétention de particules argileuses en milieu poreux saturé : approches expérimentales et numériques." Poitiers, 1999. http://www.theses.fr/1999POIT2301.

Full text
Abstract:
Les particules colloidales sont impliquees dans de nombreuses problematiques liees a l'hydrogeologie. Les particules argileuses, de part leur presence dans les eaux souterraines et leur forte capacite d'adsorption, sont des vecteurs potentiels de co-transport qui ne peuvent etre negliges. Dans ce travail, le transport et la retention de particules argileuses en milieu poreux sature sont etudies aux points de vue experimental et numerique. Des injections continues d'une suspension de smectites ont ete realisees sur des colonnes de laboratoire remplies d'un sable tres fin. Le transport colloidal est simule numeriquement a deux echelles : - une echelle microscopique, par approche lagrangienne et resolution des equations de langevin ; - une echelle macroscopique selon une equation de convection/dispersion et interaction. Deux types de comportement sont mis en evidence : - un regime stabilise, ou la concentration en sortie de colonne atteint un plateau ; - une augmentation de la retention au cours du temps, pour les forces ioniques les plus elevees et/ou a faible debit. Une augmentation de la force ionique et/ou une diminution de la vitesse d'ecoulement engendrent un accroissement de la retention des particules. Le parametre cinetique d'adsorption irreversible utilise dans l'approche macroscopique augmente logiquement avec la force ionique mais diminue avec la vitesse d'ecoulement. L'approche microscopique est utilisee afin de reinterpreter les resultats experimentaux. La determination des efficacites de capture et de collision a l'echelle du grain permet de decrire de facon satisfaisante les resultats experimentaux.
APA, Harvard, Vancouver, ISO, and other styles
10

Diouf, Abdou khadre. "Approches numériques et expérimentales pour l’étude des écoulements dans les laboratoires géologiques sur puce (GLoCs)." Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0951/document.

Full text
Abstract:
Ce travail de thèse s’inscrit dans le cadre du projet ANR CGS µLab, qui vise à appréhender lesmécanismes fondamentaux impliqués dans les procédés de stockage profond du CO2 à partir des laboratoiresgéologiques sur puce (GLoCs – geological labs on chip) pour reproduire les conditions depression et de température des milieux géologiques profonds. Au-delà de la compréhension expérimentale,l’apport des techniques de modélisations numériques apparaît essentiel afin de définir des modèlespermettant de prévoir notamment les capacités maximales de stockage à partir des caractéristiques duréservoir (porosité, perméabilité, température, pression, géochimie), et du procédé d’injection (débit,composition). Dans ce contexte, ce travail a principalement deux objectifs : (i) associer l’imagerie expérimentaleet la modélisation numérique pour simuler des écoulements non réactifs dans des GLoCset (ii) suivre expérimentalement les évolutions structurelles d’un milieu poreux 3D soumis à un écoulementréactif. Notre démarche comporte deux parties pour répondre à ces objectifs. Dans la premièrepartie, nous avons effectué la modélisation 3D des perméabilités des GLoCs par la prise de moyennevolumique. Pour ce faire, nous avons d’abord vérifié le comportement darcéen d’un GLoC en fonctionde son nombre de rangs de plots en étudiant un problème de diffusion sur un maillage emboîté quenous avons implémenté à partir d’une image binaire du GLoC pour réduire le temps de calcul. Puis,nous avons mis à jour notre code de perméabilité, qui résout le problème de fermeture de l’écoulement,en calculant analytiquement en 3D le critère de stabilité qui prend en compte l’anisotropie dela géométrie des GLoCs. Nous avons ensuite traité les images numériques 2D des GLoCs avant deprocéder à la génération de leurs volumes élémentaires représentatifs (VERs) 3D. Nous avons enfinsimulé les perméabilités des GLoCs avant de les confronter aux résultats expérimentaux et à ceuxobtenus avec le logiciel PHOENICS. Dans la deuxième partie, nous avons développé un montage expérimentalpermettant de recréer des milieux poreux réactifs en 3D au sein d’un canal microfluidique(lit fixe de microparticules de carbonates de calcium – CaCO3). Grâce à la laminographie X de la ligneID19 de l’ESRF, nous avons pu observer sur des coupes d’image 2D reconstruites les phénomènes dedissolution lors de l’injection successive de volumes constants de solution hors équilibre. Cette preuvede concept a ouvert de nouvelles perspectives d’utilisation de cette méthodologie pour acquérir desdonnées cinétiques sur des phénomènes de fronts réactifs dans les poreux
This thesis work is included within the ANR CGS µLab projet, which aims to understand thefundamental mechanisms involved in the deep storage processes of CO2 from on-chip geological laboratories(GLoCs - geological labs on chip) to reproduce the pressure and temperature conditionsof deep geological environments. Besides experimental understanding, the contribution of numericalmodeling approaches appears essential in order to define models allowing to predict in particularthe maximum storage capacities based on the characteristics of the reservoirs (porosity, permeability,temperature, pressure, geochemistry), and the injection process (flow rate, composition). In thiscontext, this work has two main goals : (i) to associate experimental imaging and numerical modelingto simulate non-reactive flows in model porous media on chip ; and (ii) to follow experimentally thestructural evolution of a 3D porous medium undergoing a reactive flow. In order to address to thesegoals, the approach we have proposed is divided into two parts. In the first part, we carried out the3D modeling of the permeabilities of GLoCs by taking volume averaging. To do this, we first verifiedthe behavior of a GLoC according to its number of plots rows by studying a diffusion problem ona nested mesh that we have implemented from a GLoC binary image to reduce computation time.Then, we updated our permeability code, which solves the closure problem of flow, by analyticallycalculating in 3D the stability criterion that takes into account the anisotropy of GLoC geometry. Wethen processed the 2D digital images of the GLoCs before proceeding with the generation of their3D representative elementary volumes. Finally, we have simulated the permeabilities of GLoCs beforecomparing them with the experimental results and those obtained with the PHOENICS software. In asecond part, we have developed an experimental set-up to recreate 3D reactive porous media within amicrofluidic channel (fixed packed bed of calcium carbonate - CaCO3 microparticles). Using the X-raylaminography of the ESRF line ID19, we have observed on reconstructed 2D images the dissolutionphenomena occurring during the successive injection of constant volumes of non-equilibrium solution.This proof of concept has opened new possibilities for using this methodology to acquire kinetic dataon reactive front phenomena in porous media
APA, Harvard, Vancouver, ISO, and other styles
More sources

Conference papers on the topic "Comparaison des approches expérimentales et numériques"

1

Pons, Frédéric, François Sabatier, Jean-Michel Tanguy, and Adrien Lambert. "Morphodynamiques des dunes sous l'effet du vent : approches expérimentales et numériques." In Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2002. http://dx.doi.org/10.5150/jngcgc.2002.020-p.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography