Academic literature on the topic 'Règle à calcul'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Règle à calcul.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Règle à calcul"

1

Boisson, Claude Pierre. "Les dénominations de la règle à calcul." Meta 41, no. 4 (September 30, 2002): 525–66. http://dx.doi.org/10.7202/002095ar.

Full text
Abstract:
Résumé L'histoire de la règle à calcul est reprise d'une manière systématique, et sa dénomination est analysée dans 41 langues. Une comparaison de ces termes nous permet de postuler pour r objet en question un "schéma définitionnel" développé, de nature panlinguistique, qui pourrait fournir une approximation empirique pour une analyse du concept / règle à calcul /. Dans ce scheme, chaque langue sélectionne typiquement deux éléments notionnels, de sorte que ces termes ressemblent à des définitions elliptiques de l'objet, certaines dénominations étant favorisées pour diverses raisons qui ne sont pas nécessairement cognitives ou linguistiques.
APA, Harvard, Vancouver, ISO, and other styles
2

Manel, J., J. Garric, J. C. Lefèvre, and M. C. Laxenaire. "Règle à calcul du volume sanguin à prélever pour réaliser une hémodilution normovolémique intentionnelle." Annales Françaises d'Anesthésie et de Réanimation 7, no. 5 (January 1988): 427–32. http://dx.doi.org/10.1016/s0750-7658(88)80064-9.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Belaubre, Gilbert. "Approches méthodologiques et expérimentales des phénomènes complexes." Acta Europeana Systemica 4 (July 14, 2020): 143–64. http://dx.doi.org/10.14428/aes.v4i1.57343.

Full text
Abstract:
La complexité de la nature est multiforme, et il est nécessaire de mettre en oeuvre des approches méthodologiques variées pour tenir compte de cette variété. Les efforts de représentation et d’explication des phénomènes naturels nous conduisent toujours à rechercher, en priorité, des relations de proportionnalité entre les mesures de ce que nous considérons comme des variables pertinentes. La linéarité a été et reste la règle d’or de nos représentations. Mais beaucoup de phénomènes sont rebelles à cette réduction. Les ordinateurs nous aident aujourd’hui à intégrer des myriades de données et à bâtir des modèles non linéaires. Ils ne se substituent pas à la pensée heuristique du savant, mais ils allègent les calculs et permettent des tests d’hypothèses quasiment instantanés. Il a fallu de longs mois de calcul pour que Le Verrier définisse l’orbite d’Uranus. Aujourd’hui, les ordinateurs exécutent ces calculs en quelques microsecondes, et ils ne font pas d’erreurs. Les complexités auxquelles nous devons faire face sont de plusieurs ordres : 1– celles de la physique statistique et de l’astrophysique, 2– celle des constructions moléculaires complexes, qui sont les précurseurs des organismes vivants, 3– celle des morphogenèses et des embryogenèses, 4– celle de la complexité neuronale, de ses processus que nous appelons le mental, 5- celles des phénomènes sociaux chez les animaux inférieurs, 6– celle des animaux sociaux, y compris les humains, particulièrement compliqués par leurs capacité d’anticipation, donc d’interactions réciproques.
APA, Harvard, Vancouver, ISO, and other styles
4

Dupuy, A., R. Moumtaz, and O. Banton. "Contamination nitratée des eaux souterraines d'un bassin versant agricole hétérogène 2. Évolution des concentrations dans la nappe." Revue des sciences de l'eau 10, no. 2 (April 12, 2005): 185–98. http://dx.doi.org/10.7202/705276ar.

Full text
Abstract:
L'usage quasi systématique de fertilisants sur de grandes surfaces a conduit la majorité des aquifères superficiels à un grave niveau de contamination par les nitrates. Des essais de gestion environnementale de cette problématique agricole sont conduits à l'échelle du bassin versant afin d'estimer les flux de nitrates percolant vers la nappe. La présente étude reprend les résultats issus de la modélisation d'un bassin versant dans le but d'appréhender l'évolution de la concentration en nitrates dans les eaux de la nappe. L'importance des conditions hydrogéologiques dans les relations entre zones non saturée et saturée a été mise en évidence par la comparaison des concentrations calculées dans la zone non saturée et observées dans la nappe. En règle générale, les concentrations sont très semblables pour les zones proches des limites amont du bassin, et se différencient de plus en plus vers l'aval du système. Une dilution semble se produire entre les flux percolant des différentes zones non saturées et les flux d'eau et de nitrates s'écoulant dans l'aquifère. Afin de tester cette hypothèse, un modèle de dilution basé sur les flux d'eau et de nitrates dans les zones non saturée et saturée est développé. Appliqué sur l'axe d'écoulement principal du système, le modèle de dilution permet de reproduire adéquatement les concentrations observées dans la nappe à partir de celles calculées dans le sol avec une erreur maximale variant de 1 à 22%. Le couplage d'un modèle environnemental pour la zone racinaire du sol avec un modèle de dilution simple peut permettre le calcul des concentrations en nitrates dans la zone saturée. Toutefois, la prise en compte des conditions hydrogéologiques du système est nécessaire à un calcul de dilution efficace basé sur les valeurs des flux de percolation.
APA, Harvard, Vancouver, ISO, and other styles
5

Postl, Peter. "Évaluation et comparaison des règles de vote derrière le voile de l’ignorance : tour d’horizon sélectif et analyse des règles de scores à deux paramètres." Articles 93, no. 1-2 (April 11, 2018): 249–90. http://dx.doi.org/10.7202/1044721ar.

Full text
Abstract:
Nous proposons un cadre général pour l’étude et l’évaluation des règles de vote derrière le « voile d’ignorance ». Nous montrerons comment de nombreuses contributions recensées dans notre revue de la littérature sur le vote peuvent être considérées comme des cas particuliers de ce modèle général. L’analyse se concentre ensuite sur l’optimisation utilitariste dans le cas d’élections à trois candidats et une spécification bayésienne où les préférences cardinales des électeurs entre trois options sont de l’information privée. Dans ce contexte spécifique, nous étudions les règles de vote qui sont des règles de score à deux paramètres, telles qu’introduites par Myerson (2002). Nous montrons que tous les équilibres bayésiens symétriques induits par ces règles de vote sont des équilibres sincères et ont une forme particulière. Ces équilibres sont uniques pour une vaste gamme de paramètres, ce qui nous permet de comparer la performance à l’équilibre de différentes règles de vote. Les résultats de nos calculs relatifs à l’efficacité des diverses règles de score (où l’efficacité est évaluée à l’aide d’une variation de la mesure proposée par Weber, 1978) permettent de conclure que les règles qui représentent le plus efficacement les préférences des électeurs permettent l’expression de l’intensité de ces préférences, contrairement aux règles plus couramment utilisées telles que la règle de pluralité et celle de Borda. Alors que la règle de vote par assentiment permet l’expression de l’intensité des préférences, elle ne maximise pas l’efficacité, car elle ne parvient pas à rendre sans ambiguïté les préférences ordinales des électeurs.
APA, Harvard, Vancouver, ISO, and other styles
6

Sackur, Jérôme. "Règles de projection et règles de calcul." Archives de Philosophie 64, no. 3 (2001): 525. http://dx.doi.org/10.3917/aphi.643.0525.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Vigier, Denis, Ludovic Moncla, Alice Brenon, Katherine McDonough, and Thierry Joliveau. "Classification des entités nommées dans l’Encyclopédie ou dictionnaire raisonné des sciences des arts et des métiers par une société de gens de lettres (1751-1772)." SHS Web of Conferences 78 (2020): 11008. http://dx.doi.org/10.1051/shsconf/20207811008.

Full text
Abstract:
Nous présentons la méthode que nous avons suivie pour améliorer notre annotation automatique des entités nommées dans l’Encyclopédie de Diderot et d’Alembert. L’outil d’annotation sémantique PERDIDO que nous utilisons a été initialement développé pour l’annotation d’informations géographiques et la reconstruction d’itinéraire. Nous proposons d’y implémenter de nouvelles règles élaborées manuellement à partir d’une étude des cotextes co-occurrentiels des noms propres du corpus accomplie au moyen d’une plateforme automatique d’exploration et de calcul.
APA, Harvard, Vancouver, ISO, and other styles
8

Parent, E., F. Lebdi, and P. Hurand. "Gestion stratégique d'un système de ressources en eau : l'exemple du système NESTE." Revue des sciences de l'eau 4, no. 4 (April 12, 2005): 543–68. http://dx.doi.org/10.7202/705115ar.

Full text
Abstract:
L'article que nous proposons s'inscrit dans le cadre des problèmes d'optimisation bimensionnelle (irrigation & salubrité) des ressources en eau durant la période d'étiage. Sur le cas du système NESTE, la résolution est effectuée selon deux approches : - un modèle de programmation dynamique avec état de dimension deux (niveau des réserves, niveau dans la rivière) où, dans la solution numérique, les variables sont discrétisées; - un modèle « synthétique » où l'on calcule une probabilité de non dépassement caractérisant l'état hydrique des ressources du système. Une règle empirique permet d'associer à cette grandeur une décision de consigne à effectuer. Les résultats numériques sont comparés sur une série de chroniques historiques. Les avantages et les inconvénients de chacune des deux approches sont mis en lumière sur le cas réel du système NESTE.
APA, Harvard, Vancouver, ISO, and other styles
9

Lessard, Michaël. "Le calcul des aliments du parent de fait : de l’approche synchronique à l’approche étapiste." Les Cahiers de droit 60, no. 1 (April 10, 2019): 251–81. http://dx.doi.org/10.7202/1058571ar.

Full text
Abstract:
Le présent article porte sur le calcul des aliments versés par les parents de fait en droit québécois. Il se divise en quatre parties. Dans la première, l’auteur explique dans quelle mesure les parents de fait québécois peuvent être tenus de fournir des aliments en vertu de la doctrine in loco parentis qui s’applique aux couples mariés. Dans la deuxième partie, il détaille la méthode prévue en droit privé fédéral pour calculer les aliments payables par une personne tenant lieu de parent. Dans la troisième, l’auteur émet l’hypothèse selon laquelle le droit civil québécois préconise une approche synchronique de calcul des aliments payables par les parents de fait et les parents civils non gardiens. Enfin, dans la quatrième partie, il recommande l’adoption d’une approche étapiste pour le calcul des pensions alimentaires. Selon l’approche étapiste, l’obligation alimentaire du parent de fait est subsidiaire à celle du parent civil. La pension alimentaire de ce dernier est d’abord déterminée sans prendre en considération le parent de fait. Celle du parent de fait est ensuite évaluée suivant les règles habituelles mais, pour obtenir sa valeur réelle, on lui soustrait le montant versé par le parent civil : la pension du parent de fait devient complémentaire de la pension du parent civil. Le parent civil est donc soumis à une obligation primaire et le parent de fait, à une obligation secondaire. Cette approche comporte quatre avantages : 1) elle favorise la stabilité de la situation financière de l’enfant ; 2) elle témoigne du rôle exercé par le parent de fait au cours de la vie commune ; 3) elle permet d’éviter des injustices envers le parent civil gardien ; et 4) elle favorise la préservation de l’institution de la filiation.
APA, Harvard, Vancouver, ISO, and other styles
10

LaRose, André. "Objectif : commutation de tenure." Revue d’histoire de l’Amérique française 66, no. 3-4 (June 11, 2014): 365–93. http://dx.doi.org/10.7202/1025534ar.

Full text
Abstract:
L’homme d’affaires et homme politique britannique Edward Ellice (1783-1863) est l’un des rares seigneurs à s’être prévalu du droit de rétrocéder sa seigneurie à la Couronne pour se la faire redonner en franc et commun soccage. Il a ainsi pu vendre les terres non concédées de sa seigneurie de Beauharnois – 40 000 hectares –, ce que les règles du régime seigneurial lui interdisaient de faire. Comment cela a-t-il pu se produire ? C’est ce que l’auteur cherche ici à comprendre, en se penchant sur les aspects politiques de la commutation de tenure, les idées et les calculs d’Ellice et ses démarches pour obtenir la commutation. Il examine ensuite les conséquences de la commutation, s’interroge sur l’effet d’entraînement du geste fait par Ellice et situe finalement Beauharnois dans le contexte des politiques foncières au Bas-Canada.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Règle à calcul"

1

Thomas, Marc. "La règle à calcul, instrument de l'ère industrielle : le rôle de la France." Nantes, 2014. https://archive.bu.univ-nantes.fr/pollux/show/show?id=e3adfc45-ef59-488c-8211-67066f93b3ee.

Full text
Abstract:
La règle à calcul est un instrument basé sur la propriété fondamentale des logarithmes. Son histoire est peu connue. Elle a été inventée par Oughtred en 1624. D'abord utilisée presque uniquement en Angleterre sous des formes spécifiques à chacun de ses usages, puis transformée sous l'impulsion de James Watt pour les besoins de ses usines vers 1780, elle a vraiment pénétré en France en 1815. Jomard et Collardeau en ont alors confié la fabrication à Lenoir. En 1851, Mannheim a créé la règle à calcul moderne. Gravet et Tavernier ont alors fabriqué en France des instruments de très grande qualité qui se sont diffusés en Allemagne, puis aux U. S. A. Et au Japon, ou les règles à calcul ont accompagné l'industrialisation. Au XXe siècle, l'instrument a été produit en très grandes quantités. Nous avons insisté sur les acteurs de cette diffusion plus que sur les questions techniques liées à la règle à calcul. Nous avons mis en évidence, à travers cette périodisation, le rôle charnière de la France au XIXe siecle dans la diffusion de la règle, et comment cette diffusion a correspondu aux besoins de la période industrielle, jusqu'à l'apparition des calculatrices électroniques dans les années 1970-1980. L'étude de la disparition très brutale de la règle à calcul est riche d'enseignements sur l'évolution des instruments de calcul. La révolution amenée par les méthodes et machines numériques par rapport aux instruments mécaniques et analogiques est une des caractéristiques de la fin de l'ère industrielle. Cette recherche, qui porte sur une très longue période, a permis de dégager des grandes tendances dans l'évolution d'un instrument de calcul emblématique de l'ère industrielle.
APA, Harvard, Vancouver, ISO, and other styles
2

Brunin, Maxime. "Étude du compromis précision statistique-temps de calcul." Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I001/document.

Full text
Abstract:
Dans le contexte actuel, il est nécessaire de concevoir des algorithmes capables de traiter des données volumineuses en un minimum de temps de calcul. Par exemple, la programmation dynamique appliquée au problème de détection de ruptures ne permet pas de traiter rapidement des données ayant une taille d'échantillon supérieure à $10^{6}$. Les algorithmes itératifs fournissent une famille ordonnée d'estimateurs indexée par le nombre d'itérations. Dans cette thèse, nous avons étudié statistiquement cette famille d'estimateurs afin de sélectionner un estimateur ayant de bonnes performances statistiques et peu coûteux en temps de calcul. Pour cela, nous avons suivi l'approche utilisant les règles d'arrêt pour proposer un tel estimateur dans le cadre du problème de détection de ruptures dans la distribution et le problème de régression linéaire. Il est d'usage de faire un grand nombre d'itérations pour calculer un estimateur usuel. Une règle d'arrêt est l'itération à laquelle nous stoppons l'algorithme afin de limiter le phénomène de surapprentissage dont souffre ces estimateurs usuels. En stoppant l'algorithme plus tôt, les règles d'arrêt permettent aussi d'économiser du temps de calcul. Lorsque le budget de temps est limité, il se peut que nous n'ayons pas le temps d'itérer jusqu'à la règle d'arrêt. Dans ce contexte, nous avons étudié le choix optimal du nombre d'itérations et de la taille d'échantillon pour atteindre une précision statistique optimale. Des simulations ont mis en évidence un compromis entre le nombre d'itérations et la taille d'échantillon pour atteindre une précision statistique optimale à budget de temps limité
In the current context, we need to develop algorithms which are able to treat voluminous data with a short computation time. For instance, the dynamic programming applied to the change-point detection problem in the distribution can not treat quickly data with a sample size greater than $10^{6}$. The iterative algorithms provide an ordered family of estimators indexed by the number of iterations. In this thesis, we have studied statistically this family of estimators in oder to select one of them with good statistics performance and a low computation cost. To this end, we have followed the approach using the stopping rules to suggest an estimator within the framework of the change-point detection problem in the distribution and the linear regression problem. We use to do a lot of iterations to compute an usual estimator. A stopping rule is the iteration to which we stop the algorithm in oder to limit overfitting whose some usual estimators suffer from. By stopping the algorithm earlier, the stopping rules enable also to save computation time. Under time constraint, we may have no time to iterate until the stopping rule. In this context, we have studied the optimal choice of the number of iterations and the sample size to reach an optimal accuracy. Simulations highlight the trade-off between the number of iterations and the sample size in order to reach an optimal accuracy under time constraint
APA, Harvard, Vancouver, ISO, and other styles
3

Pichlova, Markéta. "Méthodes d'intelligence artificielle pour l'analyse des données en provenance de pistons instrumentés." Paris 6, 2005. http://www.theses.fr/2005PA066104.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

GIRAULT, François. "Formalisation en logique linéaire du fonctionnement des réseaux de Petri." Phd thesis, Université Paul Sabatier - Toulouse III, 1997. http://tel.archives-ouvertes.fr/tel-00010245.

Full text
Abstract:
En logique classique, la formalisation du fonctionnement des réseaux de Petri (RdP) se heurte à la pérennité de la vérité. En logique modale, elle impose la construction préalable du graphe des marquages accessibles. A contrario, la logique linéaire (LL) fondée par Girard permet de formaliser directement par des séquents prouvables purement propositionnels les relations d'accessibilité dans les RdP : toute transition apparaît comme une implication linéaire disponible ad libitum entre les propositions traduisant ses marquages d'entrée et de sortie. Pour approfondir cette formalisation, nous définissons comme primitives en LL les notions de ressource, d'action et de consommabilité/productibilité, analogues mais distinctes de celles de proposition, de déduction et de vérité/fausseté en logique classique. Nous développons une interprétation concrète pour tous les connecteurs linéaires en cohérence avec leurs propriétés syntaxiques. Nous présentons le connecteur « par » comme un opérateur de cumul disjoint d'exemplaires de ressources (dual du connecteur « fois » de cumul conjoint) et la négation linéaire « nil » comme un inverseur du sens du temps. Cette concrétisation montre les limites des formalisations existantes des RdP en LL ; nous les généralisons en traduisant chaque transition par une implication linéaire ordinaire, traitée comme une ressource périssable, dont tout exemplaire consommé correspond à une occurrence de franchissement. Ainsi, nous apportons une expression logique aux aspects primordiaux du fonctionnement des RdP : nous démontrons qu'une relation d'accessibilité par séquence de transitions équivaut à un séquent prouvable et que l'équation fondamentale est l'expression algébrique d'un corollaire du critère d'équilibrage en LL. Grâce à la combinatoire de tous les connecteurs linéaires, notre approche ouvre des perspectives d'analyse de relations complexes d'accessibilité comme celles de reprise après défa illance dans un système industriel.
APA, Harvard, Vancouver, ISO, and other styles
5

Inglebert, Yanis. "Règle de STDP en calcium physiologique." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0642/document.

Full text
Abstract:
L’utilisation de calcium en concentration physiologique pourrait diminuer ou supprimer tout phénomène de plasticité induite par la règle de STDP avec des protocoles standards. Dans la région CA1 de l’hippocampe, pour une concentration de calcium de 1.8 mM, nous observons une absence de LTP après corrélation positive, mais une LTD pour l’ensemble des délais étudiés. Pour 1.3 mM, ni LTP ni LTD ne sont observées dans nos conditions expérimentales. En plus du calcium, l’activité est une composante importante dans l’induction de la plasticité par STDP. En particulier, l’augmentation de la fréquence de stimulation pendant l’appariement ou l’augmentation du nombre de potentiels d’action post-synaptiques nous a permis de récupérer la LTP par corrélation positive à 1.3 et 1.8 mM. De la même manière, l’augmentation du nombre de potentiels d’action post-synaptiques ou de la fréquence de stimulation nous a permis de récupérer la fenêtre de LTD à 1.3 mM. Parallèlement à la modulation d’activité, nous avons testé un troisième facteur qui apparaît important : la neuromodulation. La règle de STDP serait modulée, en particulier, par l’activation des récepteurs dopaminergiques et noradrénergiques. La perfusion d’isoprénaline, un agoniste des récepteurs noradrénergiques, nous a permis de récupérer la fenêtre de LTP à 1.8 mM, contrairement à l’application de dopamine. Mes résultats montrent que la règle de STDP est profondément modifiée en calcium physiologique, mais que l’utilisation d’activités spécifiques ou l’application de neuromodulateurs sont capables de restaurer un profil de courbe normal
The use of calcium in physiological concentration may be able to reduce or eliminate any plasticity phenomenon induced by the STDP rule with standard protocols. In the CA1 region of the hippocampus, at a calcium concentration of 1.8 mM we observed an absence of LTP after positive correlation. Instead, LTD is observed for all the delays that were tested. At 1.3 mM, neither LTP nor LTD were observed under our experimental conditions. In addition to calcium, activity is an important component in the induction of plasticity by STDP. Notably, an increase in stimulation frequency during pairing or an increase in the number of postsynaptic action potential allowed us to rescue LTP induced by positive correlation at 1.3 and 1.8 mM. Similarly, an increase in the number of postsynaptic action potentials or the frequency of stimulation allowed us to rescue the LTD window at 1.3 mM. In parallel with activity modulation, we tested a third factor that showed a noticeable impact: neuromodulation. The STDP rule appeared to be predominantly modulated by the activation of dopaminergic and noradrenergic receptors. The perfusion of Isoprenaline, a noradrenergic receptor agonist, allowed us to rescue the LTP window whereas dopamine application at 1.8 mM did not rescue LTP. This study demonstrates that the STDP rule is profoundly changed under physiological calcium conditions; however, the use of specific activities or the application of neuromodulators restores a normal STDP profile
APA, Harvard, Vancouver, ISO, and other styles
6

Dubois, Hubert. "Système de règles de production et calcul de réécriture." Nancy 1, 2001. http://docnum.univ-lorraine.fr/public/SCD_T_2001_0123_DUBOIS.pdf.

Full text
Abstract:
Dans cette thèse nous formalisons des systèmes de règles de production dans le système ELAN basé sur la logique de réécriture où l'application des règles est contrôlée par des stratégies. Le calcul de réécriture fournit une sémantique opérationnelle à ELAN. Nous avons ainsi été amenés à étendre ELAN tout en respectant sa sémantique. Cette extension comporte tout d'abord la possibilité de définir des classes et des objets en ELAN. Ce langage s'implante en ELAN comme un langage objet à prototype. Nous avons également défini un formalisme de règles travaillant à la fois avec une base d'objets et avec une base de contraintes. Ces deux bases coopérent par l'intermédiaire de variables partagées. Ce nouveau paradigme de programmation avec règles, objets, contraintes et stratégies nous permet de modéliser des problèmes de planification ou d'ordonnancement
In this thesis, we design production rule systems in the ELAN system which is based on the rewriting logic and where strategies control the application of the rules. The rewriting calculus gives an operational semantics of ELAN. Thus, we developed an extension of ELAN that respects its semantics. Firstly, in this extension, we give the possibility to define classes and objects in ELAN. This language is implemented in ELAN as a prototype object-language. Then, we define a new formalism of rules working together with an object and a constraint store such that objects and constraints share variables. The application of the set of rules is controlled by strategies. This new programming paradigm with rules, objects, constraints and strategies is here used to model problems such that planification or scheduling
APA, Harvard, Vancouver, ISO, and other styles
7

Mounajed, Ghassan. "La modélisation de la maçonnerie armée par la méthode des éléments finis. Application aux maçonneries de petits éléments creux." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1992. http://tel.archives-ouvertes.fr/tel-00529510.

Full text
Abstract:
Dans cette étude, les structures en maçonnerie armée des produits creux ont été étudiées. Les armatures sont noyées dans les joints horizontaux. Une campagne expérimentale est mise au point dans le but d'identifier le comportement des composants de la maçonnerie armée. Un essai original a été effectué sur un ensemble de blocs creux inclinés par rapport à la sollicitation pour déterminer les caractéristiques de cisaillement. Le comportement des joints de mortier est identifié en compression et en cisaillement. Un critère de frottement non linéaire est proposé pour l'interface bloc-joint, qui rend compte correctement des informations expérimentales La troisième partie est consacrée à la modélisation. Nous considérons la maçonnerie armée comme un matériau à deux composants : les joints de mortier (armés ou non armés) d'une part , et les éléments creux considérés comme homogènes d'autre part. Un élément de contact spécifique a été développé, il possède une rigidité élastique dans le plan du joint. Les éléments de maçonnerie ont été modélisés comme un matériau orthotrope équivalent. Des équations mathématiques décrivant le comportement de chaque matériau ont été développées. La non linéarité apparente du comportement des éléments de maçonnerie est traitée dans le cadre du formalisme de l'élastoplasticité. Enfin, une validation du modèle est menée en confrontant les résultats expérimentaux avec ceux du calcul numérique. Les résultats obtenus concordent qualitativement et quantitativement de manière satisfaisante avec l'expérimentation, le modèle peut donc être utilisé comme un outil de prédiction et d'estimation des charges ultimes supportées par les structures.
APA, Harvard, Vancouver, ISO, and other styles
8

Averyanov, Yaroslav. "Concevoir et analyser de nouvelles règles d’arrêt prématuré pour économiser les ressources de calcul." Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I048.

Full text
Abstract:
Ce travail développe et analyse des stratégies pour construire des instances de ce que l’on appelle les règles d’arrêt prématurés appliquées à certains algorithmes d’apprentissage itératif pour estimer la fonction de régression. Ces quantités sont des règles "data-driven" indiquant quand arrêter le processus d’apprentissage itératif pour parvenir à un compromis entre les coûts de calcul et la précision statistique. Contrairement à une grande partie de la littérature existante sur l’arrêt prématuré, où ces règles ne dépendent que des données de manière "faible", nous fournissons des solutions data-driven pour le problème susmentionné sans utiliser les données de validation. L’idée cruciale exploitée ici est celle du principe d’écart minimal (MDP), qui montre où arrêter un algorithme d’apprentissage itératif. À notre connaissance, cette idée remonte aux travaux de Vladimir A. Morozov dans les années 1960-1970 qui a étudié des problèmes linéaires mal posés et leur régularisation, principalement inspirés par des problèmes de physique mathématique. Parmi les différentes applications de cette ligne de travail, les soi-disant estimateurs de filtre spectral tels que le "spectral cut-off", les itérations de Landweber, et la régularisation de Tikhonov (ridge) ont reçu beaucoup d’attention (par exemple, dans des problèmes statistiques inverses). Il est à noter que le principe d’écart minimal consiste à contrôler les résidus d’un estimateur (qui sont minimisés de manière itérative) et à leur fixer correctement un seuil tel que l’on puisse atteindre une certaine optimalité (minimax). La première partie de cette thèse est consacrée aux garanties théoriques des règles d’arrêt basées sur le principe d’écart minimal et appliquées à la descente de gradient, et à la régression de Tikhonov (ridge) dans le cadre de l’espace de Hilbert à noyau reproduisant (RKHS). Là, nous montrons que ce principe fournit un estimateur fonctionnel optimal minimax de la fonction de régression lorsque le rang du noyau est fini. Cependant, quand nous traitons des noyaux reproduisants de rang infini, l’estimateur résultant sera seulement sous-optimal. En recherchant une solution, nous avons trouvé l’existence de la stratégie dite de lissage polynomial des résidus. Cette stratégie (combinée avec le MDP) s’est avérée optimale pour l’estimateur "spectral cut-off" dans le modèle de séquence gaussienne linéaire. Nous empruntons cette stratégie, modifions la règle d’arrêt en conséquence, et prouvons que le principe d’écart minimal lissé produira un estimateur fonctionnel optimal minimax sur une gamme d’espaces de fonctions, qui comprend la classe de fonctions Sobolev bien connue. Notre deuxième contribution consiste à explorer des propriétés théoriques de la règle d’arrêt d’écart minimal appliquée à la famille plus générale des estimateurs linéaires. La principale difficulté de cette approche est que, contrairement aux estimateurs de filtre spectral considérés précédemment, les estimateurs linéaires ne conduisent plus à des quantités monotones (les biais et variance). Mentionnons que c’est également le cas des algorithmes célèbres tels que la descente de gradient stochastique. Motivés par d’autres applications pratiques, nous travaillons avec l’estimateur de régression des k plus proches voisins largement utilisé, comme premier exemple fiable. Nous montrons que la règle d’arrêt susmentionnée conduit à un estimateur fonctionnel optimal minimax, en particulier sur la classe des fonctions de Lipschitz sur un domaine borné. La troisième contribution consiste à illustrer au moyen de simulations empiriques que, pour le choix du paramètre dans un estimateur linéaire (la méthode des k plus proches voisins, la régression de Nadaraya-Watson, et l’estimateur de sélection de variables), la règle d’arrêt prématuré basée sur le MDP se comporte comparativement bien par rapport à d’autres critères de sélection de modèles, largement utilisés et connus
This work develops and analyzes strategies for constructing instances of the so-called early stopping rules applied to some iterative learning algorithms for estimating the regression function. Such quantities are data-driven rules indicating when to stop the iterative learning process to reach a trade-off between computational costs and the statistical precision. Unlike a large part of the existing literature on early stopping, where these rules only depend on the data in a "weak manner", we provide data-driven solutions for the aforementioned problem without utilizing validation data. The crucial idea exploited here is that of the minimum discrepancy principle (MDP), which shows when to stop an iterative learning algorithm. To the best of our knowledge, this idea dates back to the work of Vladimir A. Morozov in the 1960s-1970s who studied linear ill-posed problems and their regularization, mostly inspired by mathematical physics problems. Among different applications of this line of work, the so-called spectral filter estimators such as spectral cut-off, Landweber iterations, and Tikhonov (ridge) regularization have received quite a lot of attention (e.g., in statistical inverse problems). It is worth mentioning that the minimum discrepancy principle consists in controlling the residuals of an estimator (which are iteratively minimized) and properly setting a threshold for them such that one can achieve some (minimax) optimality. The first part of this thesis is dedicated to theoretical guarantees of stopping rules based on the minimum discrepancy principle and applied to gradient descent, and Tikhonov (ridge) regression in the framework of reproducing kernel Hilbert space (RKHS). There, we show that this principle provides a minimax optimal functional estimator of the regression function when the rank of the kernel is finite. However, when one deals with infinite-rank reproducing kernels, the resulting estimator will be only suboptimal. While looking for a solution, we found the existence of the so-called residuals polynomial smoothing strategy. This strategy (combined with MDP) has been proved to be optimal for the spectral cut-off estimator in the linear Gaussian sequence model. We borrow this strategy, modify the stopping rule accordingly, and prove that the smoothed minimum discrepancy principle yields a minimax optimal functional estimator over a range of function spaces, which includes the well-known Sobolev function class. Our second contribution consists in exploring the theoretical properties of the minimum discrepancy stopping rule applied to the more general family of linear estimators. The main difficulty of this approach is that, unlike the spectral filter estimators considered earlier, linear estimators do no longer lead to monotonic quantities (the bias and variance terms). Let us mention that this is also the case for famous algorithms such as Stochastic Gradient Descent. Motivated by further practical applications, we work with the widely used k-NN regression estimator as a reliable first example. We prove that the aforementioned stopping rule leads to a minimax optimal functional estimator, in particular, over the class of Lipschitz functions on a bounded domain.The third contribution consists in illustrating through empirical experiments that for choosing the tuning parameter in a linear estimator (the k-NN regression, Nadaraya-Watson, and variable selection estimators), the MDP-based early stopping rule performs comparably well with respect to other widely used and known model selection criteria
APA, Harvard, Vancouver, ISO, and other styles
9

Bona, Meriem. "Détermination du logP eau/n-octanol de 1,2-dithiole-3-thiones et de 1,2-dithiole-3-ones : règles de calcul." Rennes 1, 1995. http://www.theses.fr/1995REN1S005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Chaibi, Abdelwahab. "Analyse des charges instantanées induites par le vent sur une paroi perméable : étude en vraie grandeur, simulation numérique et application aux règles de calcul." Nantes, 1991. http://www.theses.fr/1991NANT2006.

Full text
Abstract:
Les charges supportees par les revetements exterieurs des batiments dependent a la fois du champ de pression externe (fonction du vent, du site et de la geometrie du batiment) et du champ de pression interne dans la lame d'air entre le bardage et la paroi (fonction du champ de pression externe et de la permeabilite du bardage). Des etudes preliminaires en vraie grandeur nous ont permis d'acceder aux champs instantanes de pression externe et interne et d'evaluer leurs correlations. Il en est en particulier ressorti que sans prise en compte du role de la pression interne, les efforts dimensionnants peuvent etre majores de 40 a 60%. Afin de ramener les problemes de dimensionnement des bardages a la seule connaissance du champ de pression externe facilement accessible par mesure sur modele reduit en soufflerie atmospherique, nous avons mis au point un banc de mesure des permeabilites et elabore une modelisation numerique permettant de simuler le champ instantane de pression interne a partir du champ de pression externe et des caracteristiques de permeabilite du revetement. Ces trois outils (soufflerie atmospherique, banc de mesure des permeabilites et simulation numerique des pressions internes) definissent une procedure complete de dimensionnement des bardages
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Règle à calcul"

1

Tchibindat, Sylvestre. La réglementation de l'immigration algérienne en France: De la règle au calcul, du calcul à la règle. Paris: L'Harmattan, 2004.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Tchibindat, Sylvestre. La réglementation de l'immigration algérienne en France: De la règle au calcul, du calcul à la règle. Paris: L'Harmattan, 2004.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Rwanda. Iteka rya minisitiri no. 005/04/10/MIN ryo ku wa 25/10/2004 rishyiraho amabwiriza agenga ibarwa ry'amahoro: Ministerial order no. 005/04/10/MIN of 25/10/2004 fixing rules for calculation of import duties = Arrêté ministériel no. 005/04/10/MIN du 25/10/2004 fixant les règles de calcul des droits d'entrée. Kigali?: Ministry of Finance and Economic Planning?, 2004.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Eyrolles and U. T. I. Règles de calcul et de conception de charpentes en bois. Eyrolles, 1993.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Eurocode 5, Calcul des structures en bois, partie 1-1 : Règles générales et règles pour les bâtiments. Eyrolles, 1996.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Regles. Règles B.P.E.L. 91: Règles techniques de conception et de calcul des ouvrages et constructions en béton précontraint, suivant la méthode des états limites. Eyrolles, 1993.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Règles techniques de conception et de calcul des fondations des ouvrages de génie civil: Fascicule no 62. Eyrolles, 1999.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Poisson, Siméon-Denis. Recherches sur la probabilité des jugements en matière criminelle et en matière civile: Précédées des règles générales du calcul des probabilités. Adamant Media Corporation, 2001.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Règle à calcul"

1

Spiesser, Maryvonne. "Règle de trois, rapports et proportions: les calculs des marchands (xive-xvie siècles)." In Études Renaissantes, 101–22. Turnhout: Brepols Publishers, 2012. http://dx.doi.org/10.1484/m.er-eb.4.00267.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

"Calcul du TEI selon les règles de GloBE." In Les défis fiscaux soulevés par la numérisation – Rapport sur le blueprint du Pilier Deux. OECD, 2020. http://dx.doi.org/10.1787/1ff1b7e7-fr.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Règle à calcul"

1

Dal, G., B. Fradin, N. Grabar, F. Namer, S. Lignon, C. Plancq, P. Zweigenbaum, and F. Yvon. "Quelques préalables au calcul de la productivité des règles constructionnelles et premiers résultats." In Congrès Mondial de Linguistique Française 2008. Les Ulis, France: EDP Sciences, 2008. http://dx.doi.org/10.1051/cmlf08184.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Macoir, J., and M. Fossard. "Mémoire procédurale et processus cognitifs : application de règles en morphologie, syntaxe et calcul arithmétique." In Congrès Mondial de Linguistique Française 2008. Les Ulis, France: EDP Sciences, 2008. http://dx.doi.org/10.1051/cmlf08011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography