Academic literature on the topic 'Test à partir de modèles'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Test à partir de modèles.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Test à partir de modèles"

1

Utting, Mark. "Un panorama du test à partir de modèles formels." Techniques et sciences informatiques 25, no. 1 (2006): 133–39. http://dx.doi.org/10.3166/tsi.25.133-139.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Phan1, Denis. "Pourquoi un cadre ontologique pour la modélisation multi-agents en sciences humaines et sociales?" Nouvelles perspectives en sciences sociales 5, no. 2 (2010): 101–33. http://dx.doi.org/10.7202/044079ar.

Full text
Abstract:
RésuméEn philosophie, l’ontologie est « la science de ce qui est, des types et structures des objets, propriétés, évènements, processus et relations »; En informatique et management des connaissances, une « ontologie » est la spécification de la conceptualisation d’un domaine de connaissance. Pour la simulation multi-agents, le domaine concerne les modèles et non les « données ». Pour répondre à la question « Pourquoi un cadre ontologique pour la modélisation multi-agents en sciences humaines et sociales? », cet article aborde d’abord trois dimensions: (1) ingénierie des modèles (2) aspects thématiques (disciplinaires) et épistémologiques (3) comparaison et évaluation de modèle (test ontologique). À la différence de nombreuses ontologies, cet article ne propose pas une unique représentation d’un domaine de connaissance, mais le maintien d’une possible pluralité, basée sur le concept de « cadre de connaissance », conçu pour permettre d’intégrer une pluralité de « point de vue » dans un cadre général qui nous permet de comparer et/ou combiner différents points de vue qui coexistent en sciences sociales. La dernière partie présente ainsi quelques exemples de points de vue ontologiques qui peuvent être dérivés à partir du modèle de ségrégation résidentielle introduit par Schelling.
APA, Harvard, Vancouver, ISO, and other styles
3

Béland, Sébastien, David Magis, and Gilles Raîche. "Estimation des paramètres d’item et de sujet à partir du modèle de Rasch." Mesure et évaluation en éducation 36, no. 1 (2014): 83–110. http://dx.doi.org/10.7202/1024466ar.

Full text
Abstract:
La Théorie de la réponse aux items (TRI) est une classe de modèles de mesure très utilisée en éducation. À ce jour, de nombreux logiciels, tel BILOG-MG, sont disponibles afin de procéder à l’estimation des paramètres d’item et de sujet. Parmi ces logiciels, il ne faut pas négliger ICL et R qui sont gratuits et qui peuvent permettre de produire des analyses diversifiées. Cette étude a pour objectif de comparer la qualité d’estimation des paramètres selon une des modélisations issues de la TRI : le modèle de Rasch. Pour ce faire, nous comparons les estimateurs du paramètre de difficulté et de sujet selon trois logiciels : BILOG-MG, ICL et la librairie ltm, disponible sous le logiciel R. Nous procédons à une analyse par simulation informatique et, dans un second temps, nous analysons un test de classement en anglais, langue seconde. Les résultats démontrent que les logiciels étudiés permettent d’obtenir des estimateurs des paramètres similaires, la différence principale entre ces logiciels étant leur temps d’exécution des procédures d’estimation.
APA, Harvard, Vancouver, ISO, and other styles
4

Ayadi, Mohamed, Wajih Khallouli, and René Sandretto. "Les déterminants des crises financières récentes des pays émergents." Articles 82, no. 3 (2007): 341–76. http://dx.doi.org/10.7202/014918ar.

Full text
Abstract:
Résumé L’objet de cet article est de montrer empiriquement la supériorité d’une explication des crises financières récentes dans les pays émergents par la combinaison de facteurs endogènes et exogènes aux pays affectés plutôt que par le seul jeu de l’une ou l’autre de ces deux catégories de facteurs. À cet effet, nous bâtissons notre démarche sur des estimations d’un modèle de panel à erreurs composées ainsi que sur des statistiques de test des modèles emboîtés (test de Fisher). À ce jour, des éléments de preuve de la supériorité de cette approche n’ont pu être apportés que dans le contexte particulier de telle ou telle crise. Notre contribution fournit cette preuve à partir des données portant sur 14 pays émergents et 3 épisodes de récentes crises (mexicaine 1994, asiatique 1997 et russe 1998), couvrant ainsi la plupart des crises financières de ces 10 dernières années.
APA, Harvard, Vancouver, ISO, and other styles
5

Grelier, Benjamin, Gilles Drogue, Michel Pirotton, Pierre Archambeau, and Emilie Gernez. "Peut-on estimer l’effet du changement climatique sur l’écoulement à l’exutoire d’un bassin sans modèle pluie-débit ? un test de la méthode de transfert climat-écoulement par régression dans le bassin transnational de la meuse." Climatologie 14 (2017): 48–81. http://dx.doi.org/10.4267/climatologie.1232.

Full text
Abstract:
L’étude de l’impact futur du changement climatique sur l’écoulement à l’exutoire d’un bassin repose généralement sur l’utilisation d’un modèle pluie-débit. Cet article explore les potentiels et les limites d’une stratégie alternative, fondée sur une méthode de transfert climat-écoulement par régression multiple. Cette méthode s’appuie sur un séquençage d’une régression des moindres carrés partiels (PLS) et d’une régression linéaire multiple (RLM) destinée à estimer des indices d’écoulement via les meilleurs prédicteurs climatiques identifiés par régression PLS. Les modèles de régression RLM paramétrés sur des critères quantitatifs, et par jugement expert des conditions hydro-climatiques actuelles, sont ensuite forcés par des sorties de modèles de climat pour produire des projections hydrologiques à différents horizons. L’application de la méthode de transfert climat-écoulement par régression multiple à deux cours d’eau du bassin de la Meuse décrits à partir d’indices d’écoulement de basses, de moyennes et de hautes eaux, montre que : i) cette méthode fonctionne convenablement pour certains indices d’écoulement seulement; ii) une connaissance minimale de la variabilité climatique à l’échelle régionale (apportée dans notre cas, par la pression atmosphérique et le gradient régional de pression en surface et à 500 hPa) suffit à décrire de façon acceptable le forçage climatique sur ces indices; iii) le jugement expert est indispensable pour identifier les prédicteurs climatiques hydrologiquement pertinents; iv) la force du lien entre climat et écoulement est propre à chaque bassin versant; v) les changements d’écoulement prédits par la méthode de transfert climat-écoulement sous scénarios climatiques CMIP5 (Coupled Model Intercomparison Project Phase 5) pour les prochaines décennies sont en accord avec ceux prédits par la modélisation pluie-débit. Au stade de nos investigations, trois limites majeures de la méthode de transfert climat-écoulement par régression multiple ont été identifiées : 1) elle exige de longues chroniques hydro-climatiques; 2) elle a tendance à sous-estimer la variabilité interannuelle de l’écoulement à l’exutoire des bassins testés; 3) elle n’est pas en capacité de garantir avec certitude l’évolution des indices d’écoulement dans des conditions climatiques très différentes de celles de la période d’observation.
APA, Harvard, Vancouver, ISO, and other styles
6

Turcotte, Catherine, Nathalie Prévost, and Pier-Olivier Caron. "Évaluer la compréhension en lecture d’un récit et d’un texte informatif auprès d’élèves de 8 ans." Canadian Journal of Applied Linguistics 26, no. 1 (2023): 28–45. http://dx.doi.org/10.37213/cjal.2023.32826.

Full text
Abstract:
Dans cette étude, des tests de compréhension en lecture d'un récit et d’un texte informatif ont été créés à partir de modèles théoriques communs et en suivant des étapes de conception précises (DeVellis, 2003). Ils furent administrés auprès de 401 élèves francophones de 8 ans. Les données recueillies ont subi des analyses par items, factorielles et multiniveaux. Ceci a permis d’examiner les taux de réussite aux tests, de mieux déterminer leurs composantes et de les comparer afin de comprendre leur portée pour la communauté praticienne et scientifique. Les résultats révèlent que les deux tests ont une structure factorielle semblable. Or, les questions ouvertes suscitant des inférences anaphoriques, causales et lexicales sont plus ardues à réussir, surtout dans le test utilisant un texte informatif. Ces nouveaux instruments peuvent contribuer à dégager des pistes d’enseignement et favoriser la transition entre le premier et le deuxième cycle du primaire en lecture.
APA, Harvard, Vancouver, ISO, and other styles
7

Robinson, C. A., G. Agarwal, and K. Nerenberg. "Validation du modèle pronostique CANRISK pour l’évaluation du risque de diabète dans la population multi-ethnique du Canada." Maladies chroniques et blessures au Canada 32, no. 1 (2011): 21–35. http://dx.doi.org/10.24095/hpcdp.32.1.04f.

Full text
Abstract:
Introduction Malgré des taux élevés de diabète et de prédiabète non diagnostiqués, on ne dispose pas encore actuellement d’outils adéquats d’évaluation du risque pour estimer le risque individuel de diabète au Canada. Méthodologie Nous avons effectué une étude de dépistage transversale pour évaluer l’exactitude et le pouvoir discriminatif du nouveau Questionnaire d’évaluation du risque de diabète à l’intention des Canadiens (CANRISK) pour détecter le diabète et le prédiabète (dysglycémie) chez 6 223 adultes d’origine ethnique variée. L’état glycémique de tous les participants a été confirmé au moyen d’une épreuve d’hyperglycémie provoquée par voie orale (HGPO). Nous avons mis au point les scores CANRISK sur support électronique et papier, au moyen d’une régression logistique, puis les avons validés en les comparant à des analyses sanguines de référence à l’aide de méthodes « apprentissage-test ». Nous avons eu recours aux statistiques sommaires de la surface sous la courbe (SSC) obtenues à partir d’analyses de la fonction d’efficacité du récepteur (ROC) pour comparer dans quelle mesure CANRISK et d’autres modèles de cotation du risque permettaient de distinguer une vraie dysglycémie. Résultats Les SSC pour les scores CANRISK sur support électronique et support papier étaient de 0,75 (IC à 95 % : 0,73–0,78) et 0,75 (IC à 95 % : 0,73–0,78), respectivement, par rapport à 0,66 (IC à 95 % : 0,63–0,69) pour le score finlandais FINDRISC et à 0,69 (IC à 95 % : 0,66–0,72) pour un modèle simple de l’obésité qui incluait l’âge, l’IMC, le tour de taille et le sexe. Conclusion CANRISK est un outil statistiquement valide qui peut convenir à l’évaluation du risque du diabète dans la population multi-ethnique du Canada. CANRISK était considérablement plus précis que le score FINDRISC et le modèle simple de l’obésité.
APA, Harvard, Vancouver, ISO, and other styles
8

GUERFI, Mokhtar, and Atef Alaadine Amriche. "L'approche détection des changements pour estimer l'humidité du sol en milieu semi-aride à partir des images ASAR. Cas des hautes plaines de l'Est de l'Algérie." Revue Française de Photogrammétrie et de Télédétection, no. 210 (April 7, 2015): 51–62. http://dx.doi.org/10.52638/rfpt.2015.271.

Full text
Abstract:
C'est avec la télédétection radar que les résultats les plus prometteurs pour estimer et cartographier l'humidité du sol ont été obtenus. Les travaux de ces dernières années ont donné lieu à de nombreuses approches et algorithmes. Dans ce papier, nous évaluons l'approche détection des changements, qui offre le potentiel d'une utilisation opérationnelle, qui est moins complexe, minimise le rôle de la rugosité de surface et de la végétation. Quatre images du capteur ASAR/ENVISAT avec la même configuration ont été acquises, sur un secteur des hautes plaines semi-arides de l'Est de l'Algérie ; 67 échantillons sont prélevés à chaque passage du satellite sur cinq parcelles test et l'humidité mesurée. L'étude des régressions linéaires associée à l'approche détection du changement a permis l'expression du coefficient de rétrodiffusion comme fonction de l'humidité volumique du sol (σ0 = a*θ + b). Les coefficients “a” et “b” de l'équation diffèrent d'un site à l'autre et d'une saison à l'autre. Cette différence est due aux variations saisonnières de la rugosité et du couvert végétal. La comparaison entre l'humidité de surface mesurée et celle estimée montre la pertinence des modèles d'inversion utilisés, avec une erreur moyenne de plus ou moins 4%. Finalement, une carte de la distribution de l'humidité de surface de la région a été obtenue à partir des images acquises.
APA, Harvard, Vancouver, ISO, and other styles
9

Nicholls, Jim, and J. Kelly Russell. "Igneous Rock Associations 20. Pearce Element Ratio Diagrams: Linking Geochemical Data to Magmatic Processes." Geoscience Canada 43, no. 2 (2016): 133. http://dx.doi.org/10.12789/geocanj.2016.43.095.

Full text
Abstract:
It has been nearly fifty years since Tom Pearce devised a type of element ratio diagram that isolates the effects of crystal fractionation and accumulation (sorting) hidden in the chemistry of a suite of igneous rocks. Here, we review the guiding principles and methods supporting the Pearce element ratio paradigm and provide worked examples with data from the Mauna Ulu lava flows (erupted 1970–1971, Kilauea Volcano, Hawaii). Construction of Pearce element ratio diagrams requires minimum data; a single rock analysis can suffice. The remaining data test the model. If the data fit the model, then the model is accepted as a plausible or likely explanation for the observed chemical variations. If the data do not fit, the model is rejected. Successful applications of Pearce element ratios require the presence and identification of conserved elements; elements that remain in the melt during the processes causing the chemical diversity. Conserved elements are identified through a priori knowledge of the physical-chemical behaviour of the elements in rock-forming processes, plots of weight percentages of pairs of oxides against each other, or by constant ratios of two elements. Three kinds of Pearce element ratio diagrams comprise a model: conserved element, assemblage test, and phase discrimination diagrams. The axial ratios for Pearce ratio diagrams are combinations of elements chosen on the basis of the chemical stoichiometry embedded in the model. Matrix algebra, operating on mineral formulae and analyses, is used to calculate the axis ratios. Models are verified by substituting element numbers from mineral formulae into the ratios. Different intercepts of trends on Pearce element ratio diagrams distinguish different magma batches and, by inference, different melting events. We show that the Mauna Ulu magmas derive from two distinct batches, modified by sorting of olivine, clinopyroxene, plagioclase and, possibly, orthopyroxene (unobserved).RÉSUMÉIl y a près de cinquante ans Tom Pearce a conçu un genre de diagramme de ratio d’éléments qui permet d’isoler les effets de la cristallisation fractionnée et de l'accumulation cristalline (tri) au sein de la chimie d'une suite de roches ignées. Dans le présent article, nous passons en revue les principes et les méthodes étayant le paradigme de ratio d’éléments de Pearce, et présentons des exemples pratiques à partir de données provenant de coulées de lave du Mauna Ulu (éruption 1970–1971 du volcan Kilauea, Hawaii). La confection des diagrammes de ratio d’éléments de Pearce requière un minimum de données; une seule analyse de roche peut suffire. Les données restantes servent à tester le modèle. Si les données sont conformes au modèle, alors le modèle est accepté comme explication plausible ou probable des variations chimiques observées. Si les données ne correspondent pas, le modèle est rejeté. Les applications réussies des ratios d’éléments de Pearce requièrent la présence et l'identification d’éléments conservés; éléments qui demeurent dans la masse fondue au cours des processus causant la diversité chimique. Les éléments conservés sont identifiés par la connaissance a priori du comportement physico-chimique des éléments dans les processus de formation des roches, le positionnement sur la courbe des pourcentages pondérés de pairs d'oxydes les uns contre les autres, ou par des ratios constants de deux éléments. Trois types de diagrammes de Pearce de ratio d’éléments constituent un modèle: élément conservé, test d'assemblage, et diagrammes de phase discriminant. Les ratios axiaux pour les diagrammes de ratio d’éléments de Pearce sont des combinaisons d'éléments choisis sur la base de la stœchiométrie inhérente au modèle. L’algèbre matricielle, appliquée à des formules minérales et à des analyses, est utilisée pour calculer les ratios axiaux. Les modèles sont vérifiés en utilisant les nombres d’élément des formules minérales dans les ratios. Différentes intersections dans les diagrammes de ratios d’éléments de Pearce distinguent différents lots de magma et, par inférence, différentes coulées. Nous montrons que les magmas de Mauna Ulu proviennent de deux lots distincts, modifiés par l’extraction de l'olivine, de clinopyroxène, de plagioclase et, éventuellement, orthopyroxène (non observé).
APA, Harvard, Vancouver, ISO, and other styles
10

Kouassi, Amani Michel, Relwindé Abdoul-Karim Nassa, Koffi Blaise Yao, Koffi Fernand Kouame, and Jean Biemi. "Modélisation statistique des pluies maximales annuelles dans le district d’Abidjan (sud de la Côte d’Ivoire)." Revue des sciences de l’eau 31, no. 2 (2018): 147–60. http://dx.doi.org/10.7202/1051697ar.

Full text
Abstract:
Les valeurs extrêmes des variables hydroclimatiques présentent un intérêt tout particulier lorsqu’on parle en termes de risque. L'estimation de la récurrence de pluies extrêmes fournit des éléments indispensables pour la construction d'infrastructures telles que les digues, les ouvrages d'assainissement, etc., afin de protéger efficacement la population et leurs biens. Cet article a pour objectif de trouver une loi théorique qui peut montrer une bonne représentation de la fonction de distribution des pluies journalières maximales annuelles pour la prévention des risques liés aux inondations dans le district d’Abidjan au sud de la Côte d’Ivoire. Les données utilisées couvrent la période allant de 1961 à 2014. Des lois de distribution employées dans la conception des ouvrages hydrauliques ont ainsi été retenues dans cette analyse : la loi de Weibull, la loi de Gumbel et la loi log-normale. Elles ont été ajustées aux pluies journalières maximales annuelles et les paramètres ont été estimés de manière spécifique. Les fréquences empiriques ont été calculées à partir de la relation de Hazen. Les paramètres des différentes lois ont été déterminés par la méthode des moments pondérés. L’ajustement a été apprécié à partir de représentation graphique et du test du χ2. Deux critères (critère d’Akaike et critère bayésien) ont été retenus pour trancher sur le choix des meilleurs modèles. Les différentes lois ont montré en général une bonne adéquation à la série des pluies journalières maximales annuelles de la station de Port-Bouët (Abidjan). Cependant, la loi qui ajuste le mieux les pluies journalières maximales annuelles de la station de Port-Bouët (Abidjan) est la loi de Gumbel. Il est donc recommandé de travailler avec la distribution de Gumbel dans toute étude de dimensionnement d’ouvrages hydrauliques en général et dans le domaine des ouvrages d’évacuation des eaux pluviales en particulier dans le district d’Abidjan.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Test à partir de modèles"

1

Monnot, Olivier. "Recalage de modèles dynamiques à partir de la réponse en fréquence : application au recalage des modèles du lanceur Ariane 5." Châtenay-Malabry, Ecole centrale de Paris, 1995. http://www.theses.fr/1995ECAP0407.

Full text
Abstract:
Le contexte général du recalage de modèle à partir d'essais vibratoires est présenté dans le premier chapitre. En particulier, les critères usuels pour confronter modes calcules et modes mesures sont décrits. Dans une seconde partie, un recensement des méthodes de recalage déjà existantes est effectué. On distingue ainsi les méthodes de correction globale de celles basées sur le contrôle paramétrique du modèle. Ces dernières reposent sur trois idées différentes : les techniques de sensibilité, l'évaluation des forces résiduelles dans les équations d'équilibre, l'analyse des erreurs en relation de comportement. La démarche adopté par l'auteur est développée dans le troisième chapitre. Elle est composée de trois étapes : l'expansion des données expérimentales, étape la plus critique, la localisation des erreurs par l'analyse des forces résiduelles, la correction paramétrique des zones localisées par minimisation sous contraintes d'une fonctionnelle énergétique. Une méthode d'optimisation de l'emplacement des capteurs basée sur la maximisation de la matrice d'information de Fisher est également présentée. Dans la dernière partie, la méthode a été appliquée sur un cas test garteur, et également pour le recalage des modèles du lanceur Ariane 5. De nombreuses références bibliographiques sont fournies
APA, Harvard, Vancouver, ISO, and other styles
2

Fourneret, Elizabeta. "Génération de tests à partir de modèle UML/OCL pour les systèmes critiques évolutifs." Phd thesis, Université de Franche-Comté, 2012. http://tel.archives-ouvertes.fr/tel-00861015.

Full text
Abstract:
Cette thèse porte sur l'étude d'une démarche et de techniques pour prendre en compte les spécificités des systèmes sécurisés évolutifs lors de la génération des tests à partir de modèles UML/OCL. Dans ce travail, trois axes sont étudiés : (i) le cycle de vie des tests, (ii) les exigences fonctionnelles et (iii) les exigences de sécurité. Dans un premier temps, nous avons défini la clé de voûte de notre approche qui est la caractérisation des statuts du cycle de vie des tests. À l'issu de ces travaux, nous avons pu définir la démarche de classification des tests pour les systèmes évolutifs, appelée SeTGaM. La notation UML, accompagnée du langage de spécification OCL, permet de formaliser les comportements du système. Le langage OCL spécifie ainsi les gardes/actions des transitions et les pré/post conditions des opérations. La méthode propose ainsi deux classifications des tests : la première s'appuie sur les comportements issus des transitions du diagramme d'états/transitions, tandis que l'autre repose sur l'étude des comportements issus des opérations du diagramme de classes. Dans le domaine du test de logiciels critiques, une des questions clés concerne la sécurité. Pour cette raison, nous avons enrichi l'approche SeTGaM en prenant en compte l'aspect sécurité. Ainsi, SeTGaM permet de générer sélectivement des tests qui ciblent les différentes exigences de sécurité lors des évolutions du système. Finalement, le prototype de SeTGaM a été intégré, avec l'outil Smartesting CertifyIt, à l'environnement IBM Rational Software Architect. Ceci nous a permis de valider expérimentalement le passage à l'échelle de la méthode sur des études de cas industriels, notamment proposées par Gemalto/Trusted Labs dans le cadre du projet européen SecureChange.
APA, Harvard, Vancouver, ISO, and other styles
3

Tissot, Régis. "Contribution à la génération automatique de tests à partir de modèles et de schémas de test comme critères de sélection dynamiques." Besançon, 2009. http://www.theses.fr/2009BESA2015.

Full text
Abstract:
Cette thèse est une contribution à la conception d'une méthode de génération automatique de tests à partir de modèles (ou MBT -Model Based Testing). Le contexte de nos travaux se situe dans la continuité de ceux effectués autour de l'outil BZ- TT (BZ- Testing Tools) qui permet d'engendrer des tests fonctionnels à partir de modèles décrits en langage B. Les critères de sélection de tests implémentés dans l'outil BZ- TT reposent sur la couverture structurelle du modèle du système à valider en prenant en compte les structures de données et de contrôle de celui-ci. Cette approche ne permet pas de générer de tests à partir de propriétés liées au comportement dynamique du système, par exemple en tenant compte de propriétés basées sur des enchaînements d'opérations. Afin de répondre à cette problématique, un certain nombre de travaux proposent des méthodes où l'expertise humaine est exploitée afin de définir des critères de sélection de tests "dynamiques". De tels critères de sélection permettent, à l'ingénieur de définir des stratégies basées sur des propriétés et des aspects du système qu'il souhaite valider. Nos contributions s'inscrivent dans cette voie, tout en visant la complémentarité par rapport à la génération automatique de tests par couverture structurelle du modèle dans un objectif de valorisation des technologies et ressources déployées à cette fin. Notre première contribution est la définition d'un langage de formalisation d'objectifs de tests qui permet d'exprimer des ensembles de scénarios de tests inspirés de propriétés à valider sur le système. Ce langage permet de décrire des schémas de tests à partir d'un formalisme, basé sur celui des expressions régulières, qui permet de décrire des ensembles de scénarios principalement par des enchaînements d'appels d'opération et d'états symboliques. Nous définissons une méthode de génération de tests intégrée à l'outil BZ- TT, afin que celui-ci prenne en compte ce nouveau critère de sélection de tests. Cette méthode permet de réutiliser les technologies d'animation symbolique et de résolution de contraintes de cet outil, ainsi que de conserver les fonctionnalités d'exportation et de concrétisation des tests produits. Dans cette méthode, la seule charge supplémentaire pour l'ingénieur de validation est la définition des schémas de test utilisés comme critère de sélection. Nos dernières contributions, visent à évaluer la complémentarité de notre méthode avec celle de génération automatique de tests par couverture structurelle du modèle. Nous proposons une méthode d'évaluation de la complémentarité entre deux suites de tests. Cette méthode est basée sur le calcul de la couverture d'états et de transitions des suites de tests sur une abstraction du système. Enfin, nous appliquons cette méthode à trois études de cas (deux applications de type carte à puce et un système de gestion de fichiers Posix), et nous montrons la complémentarité qu'elle apporte<br>This PhD thesis is a contribution to the conception of an automatic Model Based Testing (MBT) approach for test generation. The framework of our works is the BZ-TT (BZ-Testing Tools) technology, that allows for generating functional tests from models written in B. The test selection criteria implemented in BZ- TT ensure structural coverage of the model of the system to validate. It takes into account the data and control structures of the model. This approach does not allow for generating tests from properties expressing dynamic behaviors of the system such as properties based on operations sequencing. To address this problem, some works propose to involve human expertise to define "dynamic" selection criteria. Such selection criteria make it possible for the validation engineer to define strategies based on properties and aspects of the system thet he wants to validate. Our contributions explore this way, and target the complementarity with respect to the tests generated from the structural coverage of the model, in order to benefit from the resources and technology previously deployed for this goal. Our first contribution is the definition of a language for the formalization of test purposes, that allows for expressing test scenarios inspired by the properties to validate on the system. This language is based on a regular expressions-like formalism, and aims at describing scenarios by means of operation calls and symbolic states. We define a test generation method integrated to BZ- TT, so that these tools can take these new selection criteria into account. This way, we can re-use the technics of symbolic animation and of constraint solving of BZ- TT. We also benefit from the functionalities of export and concretization of the produced tests. With this method, the only additional work for the validation engineer is to define the test schemas used as selection criteria. Our last contribution is to assess the complementarity of our method with the automatic generation of tests by structural coverage of the model. We propose a method to assess the complementarity of two test suites. It is based on the computing of the coverage in terms of states and transitions of an abstraction of the system by th test suites. Finally, we apply this method to three case studies (two smart card applications and the POSIX fil management system), and we show the complementarity brought by the method
APA, Harvard, Vancouver, ISO, and other styles
4

Grandpierre, Christophe. "Stratégies de génération automatique de tests à partir de modèles comportementaux UML/OCL." Besançon, 2008. http://www.theses.fr/2008BESA2017.

Full text
Abstract:
Les travaux présentés dans cette thèse proposent un environnement de génération de tests à partir de notations UML/OCL. La notation UML proposée pour la conception de modèles de test se compose de trois diagrammes usuels. Le diagramme de classes est utilisé pour structurer les données du système sous test dans un paradigme objet. Le diagramme d'objets instancie ce diagramme de classes pour définir l'état initial du modèle ainsi que l'ensemble du jeu de données disponible lors de l'évolution du système. Le diagramme d'étatsltransitions représente, sous la forme d'un automate à états finis, la vue dynamique du système sous test. Cette notation UML s'accompagne du langage de spécification OCL, permettant de formaliser les comportements du système. Le langage spécifie ainsi les pré-/post-conditions des opérations et les gardes/actions des transitions. On introduit par ailleurs une interprétation originale des post-conditions et des actions, traitées comme des actions et non plus comme des prédicats. Cette interprétation permet de considérer OCL comme un langage d'actions exécutable, permettant ainsi l'animation du modèle UML. Ce nouvel environnement de test est aujourd'hui industrialisé à travers l'outil Smartesting Test Designer. Afin d'améliorer la pertinence des tests générés par cet environnement, nous proposons une série de quatre familles de stratégies de génération de tests. Ces stratégies s'appuient sur la structure et les données constituantes d'un comportement. Ainsi, la stratégie Effets Garantis assure l'influence des actions d'un comportement sur les tests générés. La stratégie Contextes Garantis assure l'importance des conditions d'activation d'un comportement. La stratégie Evolution Garantie permet de faire évoluer la valeur de l'ensemble des variables d'états d'un comportement. Enfin, la stratégie Paires définition-utilisation réalise une couverture des paires de comportements du modèle de test. Ces stratégies permettent ainsi d'enrichir le contexte d'activation des comportements couverts par les cas de test générés<br>This thesis de scribes a test generation environment that generates tests from UMUOCL models. Three classic kinds of UML diagrams are used to specify the test model. A class diagram is used to design the data structure of the system under test. An object diagram instantiates this class diagram to define the initial state and ail the data available for use during the evolution of the system. A state diagram, used as an extended finite state machine, specifies the dynamic behavior of the system under test. The abject Constraint Language (OCL) is used with UML to formalize the different system behaviors. It specifies the operation preconditions and postconditions and the transition guards and actions. We introduce a new interpretation of OCL for postconditions and actions, which treats some OCL constructs as actions rather than as predicates. This new interpretation makes it possible to animate the UML test model, using OCL as an executable action language. This new Model-based Testing solution is now embedded in the Smartesting Test Designer tool. To improve the test relevance, we propose a set of four coverage criteria, based on the structure of the data and the OCL predicates. The Guarantee-Effect criterium measures coverage of the atomic actions within an OCL postcondition/action. The Guarantee-Context criterium measures coverage of the activation conditions of a transition. The Guarantee-Evolution criterium measures the changes in the values of state variables. The Def-Use Pairs criterium measures the coverage of pairs of behaviors in the model. These criteria make it possible to generate test suites that cover a wider range of activation conditions and behaviors
APA, Harvard, Vancouver, ISO, and other styles
5

Cantenot, Jérôme. "Stratégies de génération de tests à partir de modèles UML/OCL interprétés en logique du premier ordre et système de contraintes." Thesis, Besançon, 2013. http://www.theses.fr/2013BESA2042/document.

Full text
Abstract:
Les travaux présentés dans cette thèse proposent une méthode de génération automatique de tests à partir de modèles.Cette méthode emploie deux langages de modélisations UML4MBT et OCL4MBT qui ont été spécifiquement dérivées d’ UML et OCL pour la génération de tests. Ainsi les comportements, la structure et l’état initial du système sont décrits au travers des diagrammes de classes, d’objets et d’états-transitions.Pour générer des tests, l’évolution du modèle est représente sous la forme d’un système de transitions. Ainsi la construction de tests est équivalente à la découverte de séquences de transitions qui relient l’´état initial du système à des états validant les cibles de test.Ces séquences sont obtenues par la résolution de scénarios d’animations par des prouveurs SMT et solveurs CSP. Pour créer ces scénarios, des méta-modèles UML4MBT et CSP4MBT regroupant formules logiques et notions liées aux tests ont été établies pour chacun des outils.Afin d’optimiser les temps de générations, des stratégies ont été développé pour sélectionner et hiérarchiser les scénarios à résoudre. Ces stratégies s’appuient sur la parallélisation, les propriétés des solveurs et des prouveurs et les caractéristiques de nos encodages pour optimiser les performances. 5 stratégies emploient uniquement un prouveur et 2 stratégies reposent sur une collaboration du prouveur avec un solveur.Finalement l’intérêt de cette nouvelle méthode à été validée sur des cas d’études grâce à l’implémentation réalisée<br>This thesis describes an automatic test generation process from models.This process uses two modelling languages, UML4MBT and OCL4MBT, created specificallyfor tests generation. Theses languages are derived from UML and OCL. Therefore the behaviours,the structure and the initial state of the system are described by the class diagram, the objectdiagram and the state-chart.To generate tests, the evolution of the model is encoded with a transition system. Consequently,to construct a test is to find transition sequences that rely the initial state of the system to thestates described by the test targets.The sequence are obtained by the resolution of animation scenarios. This resolution is executedby SMT provers and CSP solvers. To create the scenario, two dedicated meta-models, UML4MBTand CSP4MBT have been established. Theses meta-models associate first order logic formulas withthe test notions.7 strategies have been developed to improve the tests generation time. A strategy is responsiblefor the selection and the prioritization of the scenarios. A strategy is built upon the properties ofthe solvers and provers and the specification of our encoding process. Moreover the process canalso be paralleled to get better performance. 5 strategies employ only a prover and 2 make theprover collaborate with a solver.Finally the interest of this process has been evaluated through a list of benchmark on variouscases studies
APA, Harvard, Vancouver, ISO, and other styles
6

Papailiopoulou, Virginia. "Test automatique de programmes Lustre / SCADE." Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00454409.

Full text
Abstract:
Ce travail porte sur l'amélioration du processus de test, en offrant des moyens d'automatiser la génération des tests ainsi que l'évaluation de leur qualité, dans le cadre des systèmes embarqués spécifiés en Lustre/SCADE. D'une part, nous présentons une méthodologie de test basée sur l'outil Lutess qui génère automatiquement des données de test exclusivement à partir de la description de l'environnement du système. D'autre part, on se base sur le modèle SCADE du programme sous test et nous définissons des critères de couverture structurelle qui prennent en compte deux nouveaux aspects: l'utilisation des plusieurs horloges et le test d'intégration, permettant la mesure de couverture de systèmes de grande taille. Ces deux stratégies pourraient avoir un impact positif sur le test efficace des applications réelles. Des études de cas extraites du domaine de l'avionique sont employées pour démontrer l'applicabilité de ces méthodes et pour évaluer leur complexité.
APA, Harvard, Vancouver, ISO, and other styles
7

Lasalle, Jonathan. "Génération automatique de tests à partir de modèles SysML pour la validation fonctionnelle de systèmes embarqués." Phd thesis, Université de Franche-Comté, 2012. http://tel.archives-ouvertes.fr/tel-00762053.

Full text
Abstract:
Les travaux présentés dans ce mémoire proposent une méthode originale de génération automatique de tests à partir de modèles SysML pour la validation de systèmes embarqués. Un sous-ensemble du langage SysML (appelé SysML4MBT) regroupant les éléments de modélisation pris en compte dans notre approche a été défini et une stratégie de génération de tests dédiée (intitulée ComCover) a été créée. Cette stratégie, basée sur les principes du critère de couverture de modèles bien connu Def-Use, s'intéresse à la couverture des communications (envois / réceptions) au sein du système et entre le système et son environnement.La mise en œuvre opérationnelle d'un prototype, basé sur un générateur de tests à partir de modèle UML, a nécessité la définition de règles de réécriture permettant la transformation du modèle SysML4MBT vers le format d'entrée natif du générateur de tests tout en conservant l'expressivité de SysML4MBT. Finalement, les étapes de concrétisation des tests en scripts exécutables et l'établissement automatique du verdict lors de l'exécution sur banc de test définis durant le projet VETESS permettent l'établissement d'une chaîne outillée opérationnelle de génération et d'exécution automatique de tests à partir de spécifications SysML. Cette chaîne outillée a été étrennée sur plusieurs cas d'étude automobile tels que l'éclairage avant, les essuie-glaces ou la colonne de direction de véhicule. Sur ce dernier exemple, nous avons eu l'opportunité d'exécuter les tests sur un banc de test physique. Ces cas d'étude ont permis de valider chacune des étapes de l'approche proposée.
APA, Harvard, Vancouver, ISO, and other styles
8

Gonga-Saholiarilava, Nahossio. "Quantification du relief terrestre à partir de grilles numériques : méthodes géomorphométriques, potentiel, analyse critique : tests et applications dans des zones de fronts montagneux." Paris 7, 2010. http://www.theses.fr/2010PA070075.

Full text
Abstract:
Nous avons voulu rassembler ici le fruit de quatre années d'expérience en bureau d'étude et d'auto-apprentissage qui ont permis d'étudier et de caractériser des formes de la surface terrestre et des indicateurs de géomorphologie quantitative à partir d'analyses géomorphométriques basées sur des modèles ou grilles d'élévation. On y présente tout d'abord, sous forme d'un état des lieux, les caractéristiques et la structure des modèles d'élévation ainsi que la géomorphométrie et ses applications en géomorphologie et en reconnaissance de formes. Les bases analytiques et numériques des dérivées mathématiques de l'élévation (pente, convexités locales) et l'évaluation des erreurs au sein des modèles ont été développées et présentées dans un effort de synthèse didactique. Différents tests comparatifs à partir de grilles de sources et de résolutions variées ont été effectués sur plusieurs zones de fronts montagneux présélectionnées pour leurs caractéristiques structurales et géomorphologiques, débouchant sur des algorithmes d'analyse et de calcul adaptés aux conditions du terrain et proposant une méthodologie de cartographie de l'autocorrélation spatiale. À partir de l'analyse du réseau hydrographique et du calcul et de l'évaluation de la pente et des convexités locales, une procédure de localisation automatique des knickpoints a également été développée. Cette procédure est destinée à localiser rapidement et avec précision ces irrégularités dans le profil en long des rivières, par exemple pour des études exploratoires qui précèdent un travail de géomorphologie fluviale ou pour une analyse morphotectonique régionale. Cette nouvelle méthode a été testée dans le contexte de trois fronts montagneux : la Sierra Nacimiento (Nouveau Mexique), le segment de Weber des Wasatch Mountains (Utah), et le secteur de Solsona-Boixols dans les Pyrénées orientales espagnoles, et a permis d'identifier 50 à 80% des knickpoints observés sur le terrain. La variation des résultats obtenus dépend du type de modèle d'élévation utilisé et de sa résolution au sol. Pour de meilleurs résultats l'application demande à être calibrée plus finement grâce à l'introduction de contraintes géomorphométriques supplémentaires. Une telle amélioration se destinerait à prendre en compte l'ensemble des dynamiques d'écoulement fluvial qui caractérisent la présence d'un knickpoint et d'atteindre une capacité de détection de 70-80% quel que soit le modèle d'élévation retenu et la montagne considérée. Notre travail a permis de poser les bases d'un outil reproductible en fonction des paramètres intrinsèques aux modèles ou grilles d'élévation (erreurs, précision, exactitude et structure), qu'il est possible d'intégrer à des logiciels à finalité académique ou industrielle lorsqu'il s'agit d'utiliser les caractéristiques des réseaux hydrographiques comme instruments de diagnostic des dynamiques de la surface et de la subsurface terrestre<br>This work brings together results from four years of both professional experience and self-study focusing on digital elevation models and grid studies, which today form an important basis for terrestrial surface analysis and research in quantitative geomorphology. A didactic inventory of the characteristics and structures of elevation models and their related geomorphometric components is proposed. Analytical and numerical development of the mathematical derivatives of elevation (i. E. Slope and local slope curvatures) and techniques for assessing errors and error propagation in DEMs are proposed, with emphasis on spatial autocorrelation mapping as a tool for locating error hotspots. Comparative tests were carried out on selected geographical areas exhibiting mountain fronts with specific structural and geomorphologic features. Algorithms and methods for the calculation and interpretation of primary and secondary topographic attributes were designed and tested for their suitability to the chosen terrain conditions. I have also developed a numerical script that performs an automated search of geomorphologic features such as river knickpoints on multiple drainage networks. This prototype is designed to locate knickpoints rapidly and effectively, e. G. For exploratory studies prior to field investigations or for mapping crustal deformation and/or structural geology on a regional scale. Verifications and tests are carried out on three mountain fronts with differing characteristics: the Sierra Nacimiento, New Mexico; the Weber segment, Wasatch Mountains, Utah; and the Solsona-Boixols area, eastern Spanish Pyrénées. Based on ground-truth checks, the script could identify 50 to 80% of knickpoints depending on DEM source and ground resolution. Improvements to the script performance ratings call for the introduction of additional geomorphometncal constraints. In order to be process-based as well as purely geomorphometric in nature, these must reflect the dynamics of river flow. A desirable target would be a detection capacity ranging between 70 and 80% whatever the DEM and the mountain terrain considered. This script offers a reproducible numerical tool based on the key geomorphometric parameters of elevation grids including considerations of error, precision, accuracy and structure. It can be readily incorporated into software commonly used in academic and industrial applications that rely on drainage system characteristics for interpreting surface or subsurface dynamics
APA, Harvard, Vancouver, ISO, and other styles
9

Habka, Dany. "Modélisation toxico-pharmacocinétique à partir de méthodes bioinformatiques et de tests in vitro." Compiègne, 2011. http://www.theses.fr/2011COMP1941.

Full text
Abstract:
L'objectif de la thèse est de développer et d'évaluer une approche alternative pour prédire les profils cinétiques de molécules chez l'Homme. Dans cette approche, la disposition de substance dans l'organisme est décrite par un modèle PBPK. Ce dernier est paramétré en utilisant des outils statistiques et diverses sources d'informations. La paramétrisation du modèle PBPK dans le cadre d'une approche intégrée in silico/in vitro a été évaluée. Nos résultats ont montré que la pertinence des prédictions du profil cinétique dépend de la qualité des données et de l'état de notre connaissance sur la molécule. La possibilité d'échec de la méthodologie est donc importante. Nous avons alors évalué 2 pistes pour améliorer la prédictibilité de l'approche. Tout d'abord, nous avons évalué un nouveau système dynamique in vitro développé à l'UTC. Ce dernier offre un environnement plus réaliste pour les cellules en culture par rapport aux systèmes classiques; l'espoir étant d'améliorer la pertinence des estimations in vitro. Notre travail a porté sur la modélisation de cinétiques in vitro dans le système. Nos résultats préliminaires sur le métabolisme hépatique sont encourageants. Ensuite, nous avons évalué la généralisation de l'approche intégrée in silico / in vitro en intégrant d'informations in vivo disponibles chez l'Homme. Nous avons choisi l'ifosfamide comme preuve de concept. Nos résultats ont montré que toutes les données (QSAR, in vitro et in vivo) étaient nécessaires pour paramétrer le modèle. Enfin, nous avons montré un bon niveau prédictif du modèle paramétré en réalisant des exercices d'extrapolation entre différentes doses d'administration et entre individus de différent âge<br>In this work we report calibration methodologies of PBPK models using methods that are alternatives to animal experimentations. Our aim was to develop predictive PBPK models of xenobiotics disposition in humans. PBPK / in vitro / in silico approaches have already been implemented in several commercial PK softwares. We evaluated the predictability of this approach and showed that the goodness of the PK predictions was widely dependent on the precision of ADME parameters estimation, in particular relative to partition coefficients and metabolic parameters. To increase the predictability of PBPK models, we investigated two approaches. First we investigated the development of realistic techniques like cell microchips which provide an in vivo-like environment for cells in culture and may lead to more accurate estimations of ADME parameters, notably metabolism. We evaluated preliminary metabolic data obtained on a hepatic cells microchip developed by UTC. For this purpose, we proposed a mathematical model that account for the unspecific binding to the device and cell constituents. Our results showed that the metabolic clearance predictions were equally or more accurate than the predictions made using static devices. Second the calibration of PBPK models may combine in silico, in vitro information together with in vivo data available for humans like blood concentrations. To illustrate this PBPK / QSAR / in vitro / in vivo approach, we developed a PBPK model for ifosfamide. This exercise emphasized the complementarities of the several information sources used in the calibration step. Once parameterized, the model was used to extrapolate between doses and population groups
APA, Harvard, Vancouver, ISO, and other styles
10

Balikas, Georgios. "Explorer et apprendre à partir de collections de textes multilingues à l'aide des modèles probabilistes latents et des réseaux profonds." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM054/document.

Full text
Abstract:
Le texte est l'une des sources d'informations les plus répandues et les plus persistantes. L'analyse de contenu du texte se réfère à des méthodes d'étude et de récupération d'informations à partir de documents. Aujourd'hui, avec une quantité de texte disponible en ligne toujours croissante l'analyse de contenu du texte revêt une grande importance parce qu' elle permet une variété d'applications. À cette fin, les méthodes d'apprentissage de la représentation sans supervision telles que les modèles thématiques et les word embeddings constituent des outils importants.L'objectif de cette dissertation est d'étudier et de relever des défis dans ce domaine.Dans la première partie de la thèse, nous nous concentrons sur les modèles thématiques et plus précisément sur la manière d'incorporer des informations antérieures sur la structure du texte à ces modèles.Les modèles de sujets sont basés sur le principe du sac-de-mots et, par conséquent, les mots sont échangeables. Bien que cette hypothèse profite les calculs des probabilités conditionnelles, cela entraîne une perte d'information.Pour éviter cette limitation, nous proposons deux mécanismes qui étendent les modèles de sujets en intégrant leur connaissance de la structure du texte. Nous supposons que les documents sont répartis dans des segments de texte cohérents. Le premier mécanisme attribue le même sujet aux mots d'un segment. La seconde, capitalise sur les propriétés de copulas, un outil principalement utilisé dans les domaines de l'économie et de la gestion des risques, qui sert à modéliser les distributions communes de densité de probabilité des variables aléatoires tout en n'accédant qu'à leurs marginaux.La deuxième partie de la thèse explore les modèles de sujets bilingues pour les collections comparables avec des alignements de documents explicites. En règle générale, une collection de documents pour ces modèles se présente sous la forme de paires de documents comparables. Les documents d'une paire sont écrits dans différentes langues et sont thématiquement similaires. À moins de traductions, les documents d'une paire sont semblables dans une certaine mesure seulement. Pendant ce temps, les modèles de sujets représentatifs supposent que les documents ont des distributions thématiques identiques, ce qui constitue une hypothèse forte et limitante. Pour le surmonter, nous proposons de nouveaux modèles thématiques bilingues qui intègrent la notion de similitude interlingue des documents qui constituent les paires dans leurs processus générateurs et d'inférence.La dernière partie de la thèse porte sur l'utilisation d'embeddings de mots et de réseaux de neurones pour trois applications d'exploration de texte. Tout d'abord, nous abordons la classification du document polylinguistique où nous soutenons que les traductions d'un document peuvent être utilisées pour enrichir sa représentation. À l'aide d'un codeur automatique pour obtenir ces représentations de documents robustes, nous démontrons des améliorations dans la tâche de classification de documents multi-classes. Deuxièmement, nous explorons la classification des tweets à plusieurs tâches en soutenant que, en formant conjointement des systèmes de classification utilisant des tâches corrélées, on peut améliorer la performance obtenue. À cette fin, nous montrons comment réaliser des performances de pointe sur une tâche de classification du sentiment en utilisant des réseaux neuronaux récurrents. La troisième application que nous explorons est la récupération d'informations entre langues. Compte tenu d'un document écrit dans une langue, la tâche consiste à récupérer les documents les plus similaires à partir d'un ensemble de documents écrits dans une autre langue. Dans cette ligne de recherche, nous montrons qu'en adaptant le problème du transport pour la tâche d'estimation des distances documentaires, on peut obtenir des améliorations importantes<br>Text is one of the most pervasive and persistent sources of information. Content analysis of text in its broad sense refers to methods for studying and retrieving information from documents. Nowadays, with the ever increasing amounts of text becoming available online is several languages and different styles, content analysis of text is of tremendous importance as it enables a variety of applications. To this end, unsupervised representation learning methods such as topic models and word embeddings constitute prominent tools.The goal of this dissertation is to study and address challengingproblems in this area, focusing on both the design of novel text miningalgorithms and tools, as well as on studying how these tools can be applied to text collections written in a single or several languages.In the first part of the thesis we focus on topic models and more precisely on how to incorporate prior information of text structure to such models.Topic models are built on the premise of bag-of-words, and therefore words are exchangeable. While this assumption benefits the calculations of the conditional probabilities it results in loss of information.To overcome this limitation we propose two mechanisms that extend topic models by integrating knowledge of text structure to them. We assume that the documents are partitioned in thematically coherent text segments. The first mechanism assigns the same topic to the words of a segment. The second, capitalizes on the properties of copulas, a tool mainly used in the fields of economics and risk management that is used to model the joint probability density distributions of random variables while having access only to their marginals.The second part of the thesis explores bilingual topic models for comparable corpora with explicit document alignments. Typically, a document collection for such models is in the form of comparable document pairs. The documents of a pair are written in different languages and are thematically similar. Unless translations, the documents of a pair are similar to some extent only. Meanwhile, representative topic models assume that the documents have identical topic distributions, which is a strong and limiting assumption. To overcome it we propose novel bilingual topic models that incorporate the notion of cross-lingual similarity of the documents that constitute the pairs in their generative and inference processes. Calculating this cross-lingual document similarity is a task on itself, which we propose to address using cross-lingual word embeddings.The last part of the thesis concerns the use of word embeddings and neural networks for three text mining applications. First, we discuss polylingual document classification where we argue that translations of a document can be used to enrich its representation. Using an auto-encoder to obtain these robust document representations we demonstrate improvements in the task of multi-class document classification. Second, we explore multi-task sentiment classification of tweets arguing that by jointly training classification systems using correlated tasks can improve the obtained performance. To this end we show how can achieve state-of-the-art performance on a sentiment classification task using recurrent neural networks. The third application we explore is cross-lingual information retrieval. Given a document written in one language, the task consists in retrieving the most similar documents from a pool of documents written in another language. In this line of research, we show that by adapting the transportation problem for the task of estimating document distances one can achieve important improvements
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Test à partir de modèles"

1

Lesch, Matthias. Kinesiología práctica: Superar el estrés y mejorar la salud a partir del test muscular. Integral, 1999.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Couronnes et guirlandes: [plus de 50 modèles à réaliser à partir des techniques et des matériaux les plus divers]. Ed. Fleurus, 1996.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Gérardin, V. Une classification climatique du Québec à partir de modèles de distribution spatiale de données climatiques mensuelles: Vers une definition des bioclimats du Quebec. Direction du patrimoine ecologique et du developpement durable, Ministere de l'Environnement, 2001.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Heyer, Eric. Translog ou Cobb-Douglas?: Le rôle des durées d'utilisation des facteurs : une analyse économétrique à partir de données d'entreprises industrielles françaises sur la période 1989-2001. Banque du Canada, 2004.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Heyer, Eric. Translog ou Cobb-Douglas?: Le rôle des durées d'utilisation des facteurs : une analyse économétrique à partir de données d'entreprises industrielles françaises sur la période 1989-2001. Banque du Canada, 2004.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Kamp, Leo J. Th. van der., ed. Statistical test theory for the behavioral sciences. CRC, 2008.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Drug-Acceptor Interactions: Modeling theoretical tools to test and evaluate experimental equilibrium Effects. Co-Action Pub., 2008.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Specifying and diagnostically testing econometric models. 2nd ed. Quorum Books, 1997.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Specifying and diagnostically testing econometric models. Quorum Books, 1991.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Collante Haad, Yohanna C. Destreza clínica I. Universidad de La Salle. Ediciones Unisalle, 2012. http://dx.doi.org/10.19052/9789585136601.

Full text
Abstract:
A partir de 1997 con la Ley 372, la optometría tiene nuevos campos de acción. La consulta se amplía al incorporar exámenes adicionales que antes eran de la competencia de otras especialidades. Es aquí donde el profesional en optometría debe poseer las destrezas clínicas fundamentales para el correcto manejo de estos test. Este documento tiene como propósito, de una manera sencilla y práctica, recordar y aclarar al estudiante de clínica, conceptos acerca de algunos test, sus técnicas y aplicaciones, entre ellos están la biomicroscopía, la tonometría, la evaluación de fondo de ojo y la gonioscopía. La biomicroscopía o examen con lámpara de hendidura debe incluir la exploración de los anexos oculares, la película lagrimal, la córnea, la superficie ocular, la cámara anterior, el iris, la pupila y el cristalino. Con la ayuda de lentes adicionales, el biomicroscopio también es de utilidad para valorar el polo posterior. La evaluación de la presión intraocular y la evaluación del seno camerular son factores determinantes en el diagnóstico y en el manejo del glaucoma. Asimismo, la valoración en detalle del fondo de ojo permitirá diagnosticar patologías oculares y en algunos casos sistémicos que detectadas a tiempo pueden tener un manejo oportuno.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Book chapters on the topic "Test à partir de modèles"

1

PARDI, Fabio. "Inférence phylogénétique : méthodes basées sur les distances." In Modèles et méthodes pour l’évolution biologique. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9069.ch6.

Full text
Abstract:
Une approche intuitive pour reconstruire les arbres évolutifs consiste à regrouper les espèces ou les séquences génétiques selon leur ressemblance. Différentes méthodes formelles ont été développées afin de déterminer un arbre phylogénétique à partir d'une mesure de dissimilarité. Celles-ci ont l'avantage d'être beaucoup plus rapides que les méthodes basées sur des modèles d'évolution et sont donc couramment utilisées.
APA, Harvard, Vancouver, ISO, and other styles
2

BAFFI, Solène. "Circulation des modèles en Afrique : l’exemple du Bus Rapid Transit au Cap." In Systèmes de mobilité urbaine dans le monde. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9154.ch12.

Full text
Abstract:
Ce chapitre porte sur la circulation des modèles de transports urbains en Afrique. A partir de l’exemple du projet de Bus Rapid Transit (BRT) mis en œuvre au Cap, il s’attache à montrer comment ces modèles sont portés par des réseaux d’acteurs aux intérêts divers et façonnés au gré des contextes locaux, donnant lieu à des inadéquations et à des innovations dans les villes africaines.
APA, Harvard, Vancouver, ISO, and other styles
3

Bichou, Khalid. "Sûreté maritime et portuaire à partir de modèles de risque." In Terrorisme et transport international. OECD, 2009. http://dx.doi.org/10.1787/9789282102343-6-fr.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

ÉTIENNE, Marie-Pierre, and Pierre GLOAGUEN. "Reconstruction de trajectoires et de comportements à partir de données de position." In Approches statistiques pour les variables cachées en écologie. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9047.ch1.

Full text
Abstract:
Ce chapitre présente deux modèles à variables latentes pour l'analyse des trajectoires. Chaque modèle correspond à un objectif spécifique : a) la reconstruction de trajectoires réelles en éliminant les erreurs de géolocalisation, et b) l'identification de différents comportements au cours du déplacement. Ces méthodes sont appliquées à l’étude du déplacement de Fous masqués (Sula dactylatra).
APA, Harvard, Vancouver, ISO, and other styles
5

RIBEIRO, Tony, Maxime FOLSCHETTE, Laurent TRILLING, et al. "Les enjeux de l’inférence de modèles dynamiques à partir de séries temporelles." In Approches symboliques de la modélisation et de l’analyse des systèmes biologiques. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9029.ch3.

Full text
Abstract:
Ce chapitre dresse un panorama des approches portant sur l’élaboration de modèles qualitatifs de réseaux de régulation, via des démarches s’apparentant au model-checking (pour l’analyse) et à la programmation logique (pour l’inférence). Nous nous attachons à étudier ce problème dans un contexte large-échelle, autrement dit avec potentiellement plusieurs centaines de composants interagissant.
APA, Harvard, Vancouver, ISO, and other styles
6

SIMANI, Silvio. "Méthodes guidées par les données pour le diagnostic de défauts." In Diagnostic et commande à tolérance de fautes 1. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9058.ch5.

Full text
Abstract:
Le problème d'identification de systèmes inconnus à partir d'échantillons de comportement est complexe car sa solution n'est pas unique et dépend des données. Les informations préalables sur le système facilitent l'identification en restreignant les modèles possibles. Les méthodes s'appuient sur des résultats algébriques et statistiques, notamment le schéma de Frisch, étendu aux systèmes dynamiques.
APA, Harvard, Vancouver, ISO, and other styles
7

Tomás García, Jorge. "Genealogía y tiranía de Clístenes de Sición a partir de un fragmento de Nicolás de Damasco (FGH, 61)." In Sources et modèles des historiens anciens, 2. Ausonius Éditions, 2021. http://dx.doi.org/10.4000/books.ausonius.18870.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

BONNAFFOUX, Arnaud. "Inférence de réseaux de régulation de gènes à partir de données dynamiques multi-échelles." In Approches symboliques de la modélisation et de l’analyse des systèmes biologiques. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9029.ch1.

Full text
Abstract:
L’inférence des réseaux de régulation de gènes reste un challenge majeur en biologie des systèmes malgré de nombreux efforts. Aujourd’hui, grâce aux données multi-omiques en cellules uniques, aux modèles dynamiques et stochastiques de la régulation génétique, et à la puissance de calcul disponible, de nouvelles approches telles que WASABI permettront de surmonter toutes les difficultés de ce défi.
APA, Harvard, Vancouver, ISO, and other styles
9

FRIOUX, Clémence, and Anne SIEGEL. "Problèmes d’optimisation combinatoire pour l’étude du métabolisme." In Approches symboliques de la modélisation et de l’analyse des systèmes biologiques. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9029.ch2.

Full text
Abstract:
Les modèles basés sur les réseaux métaboliques permettent de prédire le potentiel de production de molécules des organismes dans des conditions données. L’obtention de ces réseaux passe par une étape de complétion basée sur la résolution de problèmes d’optimisation combinatoire. Ce chapitre définit et décrit ces problèmes d'optimisation à partir de différents paradigmes de modélisation dynamique qui peuvent être associés à un système biologique.
APA, Harvard, Vancouver, ISO, and other styles
10

FRANÇOIS, Anne isabelle. "Face à la recrudescence des mots. Du plurilinguisme en contexte de migration et de mondialisation." In L'enfant plurilingue en littérature. Editions des archives contemporaines, 2024. http://dx.doi.org/10.17184/eac.7818.

Full text
Abstract:
L’article examine comment l’expérience de la migration et la mondialisation affectent la réalité plurilingue d’enfants qui doivent dès lors négocier leur positionnement et identité, leurs appartenances et affiliations. L’analyse est menée à partir du roman exemplaire de l’écrivain allemand d’origine tamoule srilankaise Senthuran Varatharajah, Vor der Zunahme der Zeichen (2016), qui permet de saisir ces circulations (linguistiques) multiples et les jeux d’échelle complexes. La mise en récit plurilingue de la surconscience linguistique, vécue au quotidien, permet d’inscrire le questionnement dans les réalités multipolaires contemporaines, les décloisonnant résolument des contextes nationaux, en une écriture exprimant des existences mouvantes qui n’en permettent pas moins l’émergence de formes d’alliance inédites hors des modèles communautaires exclusifs.
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Test à partir de modèles"

1

Hadj SaÏd, M., L. Thollon, Y. Godio-Raboutet, J. H. Catherine, C. M. Chossegros, and D. Tardivo. "Modélisation 3D de l’os maxillaire dans l’analyse par éléments finis en implantologie orale : une nouvelle approche utilisant CBCT et anthropométrie." In 66ème Congrès de la SFCO. EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206603022.

Full text
Abstract:
Objectif : Caractériser l’os maxillaire postérieur chez l’adulte d’un point de vue géométrique pour obtenir des modèles numériques standards par éléments finis. Matériel et méthodes : Les images CBCT maxillaires des patients qui ont visité le service de Chirurgie Orale du CHU de La Timone à Marseille, France ont été recueillies au cours de l’année 2016. Les sujets inclus devaient être âgés de plus de 21 ans et être édentés au moins à partir de la première prémolaire maxillaire. Les patients atteints d’une pathologie osseuse ou d’un traitement influençant le remodelage osseux n’ont pas été inclus. La zone maxillaire postérieure a été définie pour chaque CBCT et 6 mesures de hauteur et de largeur de la crête alvéolaire ont été réalisées à l’aide d’une méthode anthropométrique. Une étude Gauge Anova R&amp;R avec analyse de la répétabilité et de la reproductibilité de la variance des mesures, ainsi qu’une analyse en composantes principales (ACP) pour isoler des modèles standards, ont été menées. Les modèles 3D ont été réalisés à partir d’images au format DICOM. Résultats : Le CBCT de 100 hommes et 100 femmes ont été retenus dans notre étude. 1200 mesures de crête alvéolaire ont été réalisée et les valeurs moyennes de hauteur et de largeur des différentes parties de la zone maxillaire postérieure étaient très disparates. L’analyse statistique de variance a validé la répétabilité et la reproductibilité de notre protocole de mesures. L’ACP n’a pas permis d’identifier les modèles standards et ceux- ci ont été modélisés à partir de notre base de données. Conclusion : Notre travail est le premier à considérer des paramètres anthropométriques sur un large échantillon de sujets dans la méthode des éléments finis. Nous mettons ainsi en évidence la perspective de réaliser des modèles anatomiques complexes et réalistes à partir de l’anatomie humaine pour réaliser des tests biomécaniques en implantologie orale.
APA, Harvard, Vancouver, ISO, and other styles
2

Yakymets, N., Y. Munoz Julho, and A. Lanusse. "Sophia un environnement pour l’analyse de sûreté à partir de modèles." In Congrès Lambda Mu 19 de Maîtrise des Risques et Sûreté de Fonctionnement, Dijon, 21-23 Octobre 2014. IMdR, 2015. http://dx.doi.org/10.4267/2042/56148.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Tomashenko, Natalia, Salima Mdhaffar, Marc Tommasi, Yannick Estève, and Jean-François Bonastre. "Sur la vérification du locuteur à partir de traces d'exécution de modèles acoustiques personnalisés." In XXXIVe Journées d'Études sur la Parole -- JEP 2022. ISCA, 2022. http://dx.doi.org/10.21437/jep.2022-91.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

MAGNOL, Laetitia, Magali SAGE, Karine VUILLIER, Anne DRUILHE, and Séverine NADAUD. "L’utilisation des animaux en sciences : pourquoi et comment ?" In Les journées de l'interdisciplinarité 2022. Université de Limoges, 2022. http://dx.doi.org/10.25965/lji.213.

Full text
Abstract:
Pour progresser, la recherche en biologie animale s’appuie sur des données obtenues à partir de prélèvements faits sur des êtres vivants et sur différents modèles complémentaires. Ces modèles miment tout ou partie de l’être vivant étudié et reposent sur la modèlisation informatique (approche in silico), sur l’analyse de molécules en « tubes » et la culture de cellules ou de tissus (in vitro) et sur le recours aux animaux (in vivo). Les modèles in silico et in vitro sont très utilisés mais ne permettent pas, à l’heure actuelle, de reproduire la complexité d’un organisme vivant. L’utilisation des animaux en sciences reste d’actualité, et est menée dans un cadre juridique et éthique qui protège les animaux et exige le respect de leur bien-être. Dans les pages qui suivent, sont présentés le cadre européen actuellement en vigueur et les justifications de l’utilisation des animaux à des fins scientifiques au niveau international et au sein de l’établissement utilisateur d’animaux qu’est l’Université de Limoges.
APA, Harvard, Vancouver, ISO, and other styles
5

FERRANDON, Erwan, Mathis COURANT, Camélia POPESCU, Yann LAUNAY, Sophie ALAIN, and Claire LEFORT. "Un pipeline instrumental et computationnel pour visualiser des particules virales de SARS-CoV-2 en suspension." In Les journées de l'interdisciplinarité 2022. Université de Limoges, 2022. http://dx.doi.org/10.25965/lji.684.

Full text
Abstract:
La compréhension des modes d’actions biologiques des virus dans une cellule hôte est un sujet complexe pour lequel nous pensons que les solutions optiques pourraient apporter des éléments de réponse nouveaux. Cependant, les dimensions des particules virales sont environ 3 fois plus petites que la résolution d’un microscope optique. Nous proposons de tester une nouvelle stratégie instrumentale et computationnelle, reposant sur la microscopie multiphotonique, pour visualiser des objets dont les dimensions sont de l’ordre de quelques centaines de nanomètres. Cette stratégie repose sur la prise en compte de la réponse impulsionnelle de l’instrument (PSF pour Point Spread Function) in situ, modélisée mathématiquement. A partir de ce modèle qui prend en compte les distorsions optiques locales, un post-traitement numérique des images est appliqué en vue d’optimiser la qualité visuelle des images. Nous faisons des tests sur deux populations de virus : les Cytomégalovirus (CMV) et le SARS-CoV-2.
APA, Harvard, Vancouver, ISO, and other styles
6

Valle, Andrea. "« Mettre au monde le monde ».. Sur la relation entre sémiotique de la production et production sémiotique." In Arts du faire : production et expertise. Université de Limoges, 2009. http://dx.doi.org/10.25965/as.3213.

Full text
Abstract:
Le concept de production sémiotique admet au moins une double déclinaison. En premier lieu, et historiquement, il concerne la praxis responsable de la réalisation d’objets qui rentrent dans le domaine de la sémiotique. En d’autres termes, c’est en fonction de la reconnaissance du caractère sémiotique du produit que l’on étudie le parcours historique qui en est à l’origine ; parcours qui, en fonction de cette origine, est pour cela même d’intérêt sémiotique, en tant que « production ». Par exemple, il s’agit de partir d’une œuvre et, une fois qu’elle a assumé le statut de « texte », d’y étudier le travail de l’artiste. En deuxième lieu, on entend par « production » un ensemble d’opérations qui président à la construction sémiotique d’un objet. Or, ce dernier ensemble d’opérations devrait recevoir une formalisation sémiotique qui rende compte du processus de production qui préside à l’achèvement de l’état du produit (et qui est déjà entièrement interne à l’ordre du sémiotique). Si le produit dont il est question est le texte-énoncé (et d’ailleurs cela ne pourrait pas être autrement), alors une théorie de la production coïncide pour l’essentiel avec une théorie de l’énonciation – c’est d’ailleurs ce que Greimas et Courtés remarquaient dans le Dictionnaire, à l’entrée « production ». A partir de cette double déclinaison, une duplicité intéressante découle : un même objet-texte peut donner accès à deux théories de la production, l’une à vocation « exogonique » et l’autre à vocation « endogonique ». La première permet la convocation des pratiques de production historiquement attestées (et par là même, l’étude empirique des pratiques elles-mêmes) ; la seconde conduit à la définition formelle du concept de praxis en sémiotique (à travers un travail fondamental sur la praxis énonciative, travail qui est bien loin d’être terminé). Toutefois, ce hiatus constitue aussi la possibilité d’une connexion. La discussion générale sur le concept de « pratique » demande donc un « nouement » : il sera question de garder ensemble pratiques historiques et modèles sémiotiques, afin d’en évaluer les relations possibles. Pour l’instant, et en exploration, on peut vérifier cet ensemble de problèmes à partir de deux exemples relevants. Le premier est le cas de la notation musicale contemporaine et des phénomènes concernés, entre composition, notation et exécution. Le deuxième exemple sera avancé à partir de quelques compositions d’Alighiero Boetti, dans lesquelles la relation entre projet et réalisation semble suivre des parcours analogues à ceux de la notation musicale.
APA, Harvard, Vancouver, ISO, and other styles
7

Desoutter, A., A. G. Bodard, S. Langonnet, S. Salino, and J. C. Bera. "Développement d’un modèle expérimental d’irradiation de mandibule de lapin. Intérêt dans l’évaluation de nouvelles techniques de traitement ou prévention de l’ORN." In 66ème Congrès de la SFCO. EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206603023.

Full text
Abstract:
La radiothérapie (RTE) constitue une thérapeutique majeure dans la prise en charge des cancers ORL. Elle entraîne une altération cellulaire, matricielle et vasculaire des tissus. Au niveau du tissu osseux, cela aboutit à un déséquilibre entre apposition et résorption osseuses, avec pour conséquence un risque d’ostéoradionécrose (ORN)1. Le traitement de l’ORN peut être médical ou chirurgical. Il peut alors comporter des chirurgies lourdes (interruption mandibulaire ), avec des conséquences dramatiques sur les fonctions oro-faciales2. Il apparaît donc nécessaire de développer des techniques préventives et thérapeutiques plus efficaces et moins mutilantes, afin d’améliorer la qualité de vie de ces patients. L’objectif de l’étude est de mettre au point un modèle animal (lapin), permettant de simuler une perte de substance osseuse alvéolaire sur une mandibule irradiée, afin d’évaluer la cicatrisation osseuse après extraction dentaire en territoire irradié, et d’évaluer les effets des ultras sons de faible intensité (LIPUS) dans la prévention ou le traitement de l’ORN. L’étude a été approuvée par le comité d’éthique pour l’expérimentation animale du Centre Léon Bérard (n° d’agrément 69.388.0501). Le modèle animal retenu est le lapin femelle adulte (race New-Zealand White). La première partie de l’étude consiste à confirmer le schéma de radiothérapie. 30 lapins sont inclus ; 10 sont témoins, et 20 sont irradiés selon les modalités suivantes : 8.5 Gy par séance, 5 séances, 1 séance par semaine. A la fin de la radiothérapie, un défaut osseux mandibulaire simulant une extraction dentaire est réalisé. Les animaux sont ensuite sacrifiés à J0, J7, J14, J28, J42. L’évaluation de la reconstruction osseuse au niveau du site d’extraction se fait grâce à des analyses histologiques, la réalisation d’un microscanner et des tests de microdureté. Ensuite, un protocole d’insonification est développé. Après réalisation du défaut osseux chez 12 lapins, 10 mandibules de lapins (2 lapins contrôles) sont insonifiées selon le protocole suivant : fréquence = 1,05MHz, tension = 77mV, 2ms on/8ms off, Intensité acoustique = 300mW/cm. Les sacrifices et l’évaluation de la reconstruction osseuse sont réalisés selon les mêmes modalités que précédemment. Enfin, les LIPUS sont étudiés sur des mandibules de lapins irradiés : 20 lapins sont irradiés puis bénéficient de la création du défaut osseux. 10 recoivent les LIPUS comme précédemment (10 lapins contrôles). Les sacrifices et les analyses histologiques, radiologiques et micro-mécaniques sont réalisés comme précédemment. Une étude de faisabilité est actuellement en cours, afin de déterminer les modalités de création du défaut osseux, et de préciser les paramètres d’évaluation. Différentes études ont montré que les LIPUS stimulaient le tissu osseux en stimulant la différenciation ostéoblastique3. Une utilisation dans le traitement des ORN semble donc envisageable, ce qui permettrait de diminuer les mutilations oro-faciales liées aux chirurgies réalisées actuellement.
APA, Harvard, Vancouver, ISO, and other styles
8

Piemontez, Rafael, and Eros Comunello. "Correção de Pose Facial a Partir de Modelos 3D." In Computer on the Beach. Universidade do Vale do Itajaí, 2020. http://dx.doi.org/10.14210/cotb.v11n1.p062-063.

Full text
Abstract:
Facial recognition systems have to deal with a variety of problemsfor better accuracy results, such as lighting, obstruction, and posevariation, which occur when comparing an image to be detectedwith a previously identified image. In this context, this work aimsto use a pose alignment technique developed by Gang Pan. Togetherwith the Iterative Closest Ooint (ICP) and Average FaceModel (AFM) techniques, in order to perform a pose correction,a beginning of 3D facial models, in fully faces (90◦) or separatelyrotated, and test the result of this facial alignment with the PrincipalComponent Analysis (PCA), Linear Discriminant Analysis(LDA), and Support Vector Machine (SVM) recognition and classificationalgorithms related to the Local Binary Pattern (LBP), DiscreteCosine Transform (DCT), and Gaussian Filter preprocessing techniques.The classification algorithms will be tested in parallel andindependently counted, where one result will not interfere in anyother case, with the use of identifying which algorithm has the bestaccuracy. To perform the tests, a facial, text, infrared and visiblelight database was created with frontal images on the left, right,top, bottom and random face pose, resulting in a population of 90subjects and approximately 1600 colors.
APA, Harvard, Vancouver, ISO, and other styles
9

Catros, S. "A quoi servent les Bio-Imprimantes 3D ?" In 66ème Congrès de la SFCO. EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206601012.

Full text
Abstract:
Les imprimantes 3D existent depuis plusieurs décennies et le principe général de la fabrication additive est de déposer des couches successives de matériau afin dobtenir un volume, à partir d’un modèle défini à l’avance grâce à une interface informatique. Depuis quelques années, ces imprimantes sont utilisées dans le domaine médical : ainsi, les chirurgiens peuvent obtenir une réplique en résine d’une situation clinique afin de planifier leur geste chirurgical pour réaliser des interventions moins invasives. Par ailleurs, on peut aujourdhui imprimer certains biomatériaux synthétiques sur mesure afin dobtenir des greffons personnalisés basés sur limagerie tridimensionnelle d’un patient. Ces applications utilisent sur des imprimantes fonctionnant principalement sur le principe de la stéréolithographie (photopolymérisation sélective de résines photosensibles) ou bien du dépôt à chaud de fil fondu : ces technologies ne permettent pas dutiliser des composés biologiques tels que des cellules ou des biomolécules. Plus récemment, des imprimantes 3D dédiées à l’impression déléments biologiques (Bio-Impression) ont été développées. On distingue la Bioimpression assistée par laser, la bioimpression par jet dencre et lextrusion dhydrogels. Ces trois méthodes présentent des points communs (utilisation d’une encre biologique, modélisation du motif à imprimer et pilotage de limprimante par une interface informatique, impression couche par couche). Cependant, en fonction de la technologie utilisée, la résolution et le volume des motifs imprimés peuvent varier de façon importante. Les machines permettant d’imprimer à haute résolution ne sont habituellement pas adaptées lorsquon cherche à obtenir des volumes importants ; de la même façon, lorsqu’une technologie permet d’imprimer des volumes importants, il est souvent difficile dobtenir de hautes résolutions dimpressions. De ce fait, on doit parfois combiner plusieurs technologies pour produire certains assemblages complexes. Ainsi, il est primordial de définir finement ses objectifs avant de choisir une technologie de bioimpression. Les applications des imprimantes 3D de tissus biologiques (Bio-imprimantes) sont toutes dans le champ de lingénierie tissulaire et aujourdhui presque exclusivement dans le domaine de la recherche. Les méthodes permettant d’imprimer à haute résolution trouvent des applications principalement en biologie cellulaire lorsquon cherche par exemple àé valuer les capacités de communication de plusieurs types cellulaires : en effet, il est possible de créer des motifs réguliers en imprimant des gouttes de bioencre contenant chacune quelques cellules avec la technologie laser. Par ailleurs, d’autres technologies basées sur lextrusion permettent de manipuler des amas cellulaires (sphéroïdes) et de les organiser entre eux, ce qui peut trouver des applications dans le domaine de la cancérologie. En combinant les technologies, on peut aujourdhui mettre en place des modèles d’étude pharmacologiques qui pourraient à terme se substituer à certaines expérimentations animales et ouvrir la voie à certaines thérapies ciblées. Enfin, la fabrication dorganes par bioimpression (« Organ Printing ») reste aujourdhui du domaine de la science fiction, même si quelques équipes travaillent sur cet aspect. Les imprimantes 3D biologiques apportent donc de nouveaux outils pour le chercheur dans de nombreuses applications en biologie et en médecine régénératrice. Le choix de la méthode la plus adaptée à L’objectif de L’étude est primordial afin dutiliser au mieux ces technologies.
APA, Harvard, Vancouver, ISO, and other styles
10

Rubio Gutiérrez, Harmida. "La ciudad de los relatos: la transformación de la ciudad y sus lugares a partir de la narrativa." In Seminario Internacional de Investigación en Urbanismo. Facultad de Arquitectura. Universidad de la República, 2015. http://dx.doi.org/10.5821/siiu.6226.

Full text
Abstract:
Lo que nos ocupa en esta propuesta es saber qué narran las ciudades contemporáneas y por qué, a fin de entender cómo cambian y reflexionar de qué manera podemos estudiarlas y proyectarlas en este siglo XXI. Argumentamos que es necesario profundizar en la dimensión temporal de la ciudad desde un enfoque artístico y creativo, y proponemos la narrativa como perspectiva de acercamiento a la ciudad. Entendemos la narrativa epistemológicamente, como una manera de entender el mundo y la vida, y desde ahí construimos una propuesta metodológica para leer ciudades. Ponemos a prueba nuestro proceso metodológico narrativo en tres ciudades: Xalapa, Oaxaca (México) y Las Palmas de Gran Canaria (España). Sin embargo, para efectos de esta ponencia, solamente presentaremos Las Palmas de Gran Canaria por cuestiones de espacio y trataremos de encontrar los procesos clave de su transformación. What concerns us in this proposal is what do contemporary cities narrate and why, in order to understand how they change, and because of this, think of how we can study and project them into this century. We argue that it is necessary to examine the temporal dimension of the city from an artistic and creative approach, that is why we propose narrative like a perspective to approach to the city. We understand narrative in its epistemological part, as a way of understanding the world and life; and from there, we build a proposal to read cities. We test our narrative methodological process in three cities: Xalapa, Oaxaca (Mexico) and Las Palmas de Gran Canaria (Spain). However, for purposes of this paper, we present only Las Palmas, and we try to find the principal process of its transformation.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Test à partir de modèles"

1

Steele, K. G., C. L. Baker, and M. B. McClenaghan. Modèles de stratigraphie glaciaire établis à partir de forages, région de Matheson, nord-est de l'Ontario. Natural Resources Canada/ESS/Scientific and Technical Publishing Services, 1994. http://dx.doi.org/10.4095/194826.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Moran, Kevin, Dalibor Stevanovic, and Adam Kader Touré. Le pessimisme risque de nous plonger dans une récession. CIRANO, 2023. http://dx.doi.org/10.54932/htmw1091.

Full text
Abstract:
Depuis plus d’un an, différentes enquêtes rapportent que les entreprises et consommateurs canadiens sont plutôt pessimistes quant à la situation économique. Évaluer dans quelle mesure cette vague de pessimisme peut causer un ralentissement économique représente un défi méthodologique auquel les auteurs s’attaquent dans une récente étude CIRANO. À partir de données historiques canadiennes et américaines et d’analyses de causalité basées sur des modèles vectoriels autorégressifs, les auteurs suggèrent que les corrélations entre confiance et activité économique contiennent effectivement une composante causale. En conséquence, les récentes baisses observées dans les mesures de confiance pourraient mener à un ralentissement économique.
APA, Harvard, Vancouver, ISO, and other styles
3

Moran, Kevin, Dalibor Stevanovic, and Adam Kader Touré. Confiance et activité économique : analyse d’impact sur l’économie canadienne. CIRANO, 2023. http://dx.doi.org/10.54932/pamp8753.

Full text
Abstract:
Depuis le début de l’année 2022, autant les indices de confiance des consommateurs que ceux de la confiance des entreprises ont enregistré des baisses marquées et rapides, au Canada comme aux États-Unis. Dans l’ensemble, les agents économiques, qu’ils soient canadiens ou américains, semblent pessimistes à propos de la conjoncture économique à venir. Les auteurs examinent ici l’aspect causal de la corrélation entre confiance et activité économique. À partir d'estimations économétriques fondées sur la méthode des modèles vectoriels autorégressifs (VARs), ils évaluent les impacts des chocs à la confiance des consommateurs et des entreprises sur plusieurs agrégats mesurant l’activité économique canadienne. Leurs résultats suggèrent qu’une hausse (baisse) soudaine dans la confiance est susceptible de provoquer une accélération (un ralentissement) économique au Canada. Les impacts des chocs de confiance spécifiquement canadiens sont quantitativement plus importants, d’où l’importance d’une analyse mettant l’accent sur les mesures canadiennes de confiance.
APA, Harvard, Vancouver, ISO, and other styles
4

Guidati, Gianfranco, and Domenico Giardini. Synthèse conjointe «Géothermie» du PNR «Energie». Swiss National Science Foundation (SNSF), 2020. http://dx.doi.org/10.46446/publication_pnr70_pnr71.2020.4.fr.

Full text
Abstract:
La géothermie de faible profondeur avec des pompes à chaleur correspond à l’état actuel de la technique et est déjà largement répandue en Suisse. Au sein du futur système énergétique, la géothermie de moyenne à grande profondeur (1 à 6 km) devrait également jouer un rôle important, notamment en matière de fourniture de chaleur pour les bâtiments et les process industriels. Cette forme d’utilisation de la chaleur géothermique nécessite un sous-sol bien perméable, permettant à un fluide – généralement de l’eau – d’engranger la chaleur naturellement présente dans la roche et de la transporter jusqu’à la surface. Dans les roches sédimentaires, cette condition est généralement vérifiée du fait de la structure naturelle, tandis que dans les granites et les gneiss la perméabilité doit être générée artificiellement par injection d’eau. La chaleur ainsi récupérée augmente au fur et à mesure de la profondeur de forage : la température souterraine atteint environ 40°C à 1 km de profondeur et environ 100°C à 3 km de profondeur. Pour entraîner une turbine à vapeur en vue de produire de l’électricité, des températures supérieures à 100°C sont nécessaires. Étant donné que cela implique de forer à des profondeurs de 3 à 6 km, le risque de sismicité induite augmente en conséquence. Le sous-sol peut également servir à stocker de la chaleur ou des gaz, par exemple de l’hydrogène ou du méthane, ou encore à enfouir de façon permanente du CO2. À cet effet, les mêmes exigences que pour l’extraction de chaleur doivent être vérifiées et le réservoir doit en outre être surmonté d’une couche étanche, empêchant le gaz de s’échapper. Le projet conjoint « Énergie hydroélectrique et géothermique » du PNR « Énergie » était avant tout consacré à la question de savoir où en Suisse trouver des couches de sol appropriées, répondant de manière optimale aux exigences des différentes utilisations. Un deuxième grand axe de recherche concernait les mesures visant à réduire la sismicité induite par les forages profonds et les dommages aux structures qui en résultent. Par ailleurs, des modèles et des simulations ont été élaborés dans le but de mieux comprendre les processus souterrains qui interviennent dans la mise en œuvre et l’exploitation des ressources géothermiques. En résumé, les résultats de recherche montrent que la Suisse jouit de bonnes conditions pour l’utilisation de la géothermie de moyenne profondeur (1-3 km), tant pour le parc de bâtiments que pour les processus industriels. L’optimisme est également de mise en ce qui concerne le stockage saisonnier de chaleur et de gaz. Le potentiel de stockage définitif de CO2 dans des quantités pertinentes s’avère en revanche plutôt limité. Concernant la production d’électricité à partir de la chaleur issue de la géothermie profonde (&gt; 3 km), il n’existe pas encore de certitude définitive quant à l’importance du potentiel économiquement exploitable du sous-sol. Des installations de démonstration exploitées industriellement sont absolument nécessaires à cet égard, afin de renforcer l’acceptation par la population et les investisseurs.
APA, Harvard, Vancouver, ISO, and other styles
5

Villa, Juan Miguel, Fiorella Benedetti, Marcos Farach, and Pablo Ibarrarán. Focalización del programa de transferencias monetarias condicionadas en Honduras. Inter-American Development Bank, 2014. http://dx.doi.org/10.18235/0009588.

Full text
Abstract:
Con el propósito de mejorar la eficiencia distributiva del gasto social en Honduras dentro de un contexto de fuertes restricciones fiscales, es indispensable priorizar a los hogares más pobres como beneficiarios de los programas sociales. Consecuentemente, desde el año 2010 el Bono 10.000 --el programa de transferencias monetarias condicionadas (PTMC) del país-- ha combinado la focalización geográfica y la de hogares para lograr este objetivo. En esta nota los autores analizan la evolución de los modelos de focalización de hogares del Bono 10.000 en términos de errores de inclusión y exclusión, y proponen una nueva metodología para mejorar el último esquema. Esta metodología consiste en un modelo de prueba de aproximación de medios (Proxy Mean Test) a partir de los ingresos de los hogares y de sus características socioeconómicas. Con el nuevo modelo, los errores de exclusión e inclusión en las áreas rurales son del 17% en cada caso versus 38,3 y 32% respectivamente en el modelo anterior.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography