Academic literature on the topic 'Précision des données comptables'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Précision des données comptables.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Précision des données comptables"

1

Chapellier, Philippe. "Profils de dirigeants et données comptables de gestion en PME." Revue internationale P.M.E. 10, no. 1 (2012): 9–41. http://dx.doi.org/10.7202/1009016ar.

Full text
Abstract:
Selon la littérature se rapportant au système de gestion du dirigeant de PME, bon nombre d’entreprises de taille petite ou moyenne ne disposeraient que d'outils de gestion embryonnaires, ce qui expliquerait l’intérêt des dirigeants de PME pour les médias plus informels, pour les informations verbales. Toutefois, les études empiriques réalisées sur ce thème mènent à des conclusions nuancées. Ainsi, la vision d’un système de données comptables de gestion (SDCG) rudimentaire ne correspond pas à la réalité de toutes les PME observées, les dirigeants de PME ayant, face à ce type de données, des attitudes différenciées. À côté de cela, de nombreux spécialistes expliquent qu’un élément tout à fait caractéristique de l’univers des PME réside dans l’extrême diversité des profils de dirigeants. Dans ce contexte, l’objectif de cet article consiste à essayer de déterminer dans quelle mesure le profil des dirigeants de PME « guide » leur comportement face aux données comptables de gestion. Pour répondre à cet objectif, une enquête a été réalisée par entretien direct et par administration d’un questionnaire auprès d’un échantillon de 113 dirigeants de PME. L’étude révèle que le profil d’un dirigeant est significativement lié à son type de pratiques comptables : les dirigeants de profils différents disposent de SDCG de complexité différente et utilisent les données comptables de manière différenciée.
APA, Harvard, Vancouver, ISO, and other styles
2

BULOBA mulumba, RAM'X ANDRE. "Les enjeux de la transition vers une comptabilité intégralement informatisée." International Journal of Scientific Research and Management (IJSRM) 11, no. 09 (2023): 5132–43. http://dx.doi.org/10.18535/ijsrm/v11i09.em09.

Full text
Abstract:
La transition vers une comptabilité intégralement informatisée présente de nombreux avantages, tels que le gain de temps et la fiabilité accrue des données comptables. Cependant, elle soulève également des défis importants, tels que la nécessité de former les employés à l’utilisation de nouveaux outils et la gestion de données financières sensibles. Pour relever ces défis, de nombreux outils numériques sont disponibles pour faciliter la transition, tels que des logiciels de comptabilité et des systèmes de protection des données. Il est donc essentiel pour les entreprises de prendre en compte ces enjeux pour garantir l’efficacité et la fiabilité de leurs processus comptables. La transition vers une comptabilité intégralement informatisée est un sujet d’actualité dans le domaine de la finance et de la gestion d’entreprise. L’automatisation croissante des processus comptables est une tendance qui ne fait que s’accélérer, et qui pose de nombreux enjeux et défis aux professionnels de la comptabilité.
APA, Harvard, Vancouver, ISO, and other styles
3

Barbier, Yvan, and Pierre Rasmont. "Des banques de données biogéographiques vers les banques de données biotopographiques. De nouvelles techniques pour de nouveaux enjeux." Biogéographie et phylogénie 84, no. 2 (2004): 51–57. http://dx.doi.org/10.7202/007807ar.

Full text
Abstract:
Résumé Le développement conjoint de la technologie GPS, des Systèmes d’Information Géographique et de la micro-informatique permet à l’heure actuelle d’atteindre un niveau de précision extraordinaire pour les localisations géographiques. Une précision de l’ordre de trois mètres est actuellement disponible pour tout un chacun pouvant disposer d’un récepteur GPS moderne. La précision accrue de ces coordonnées géographiques laisse entrevoir de nouvelles possibilités en termes d’études sur la biogéographie, l’écologie des espèces, les populations, etc. Cependant, les banques de données biogéographiques doivent évoluer dans le même sens. En effet, l’amélioration de plusieurs ordres de grandeur dans la précision des coordonnées géographiques demande une gestion beaucoup plus poussée de celles-ci. Il est à présent impératif de tenir compte des paramètres géodésiques liés aux coordonnées qui y sont notées et conservées. Ces paramètres sont : 1) la nature du système de coordonnées utilisé, 2) le datum associé et 3) la précision des coordonnées. Si ces trois paramètres sont conservés dans les banques de données, il devient alors possible de tirer pleinement profit des nouveaux outils informatiques qui sont maintenant largement disponibles.
APA, Harvard, Vancouver, ISO, and other styles
4

Monnet, Jean-Matthieu. "ESTIMATION DE PARAMÈTRES FORESTIERS PAR DONNÉES LIDAR AÉROPORTÉ ET IMAGERIE SATELLITAIRE RAPIDEYE : ÉTUDE DE SENSIBILITÉ." Revue Française de Photogrammétrie et de Télédétection 1, no. 211-212 (2015): 71–79. http://dx.doi.org/10.52638/rfpt.2015.544.

Full text
Abstract:
Les différents critères qui influencent la précision de la méthode surfacique d’estimation de paramètres forestiers à partir de données LiDAR ont été étudiés le plus souvent séparément et dans des contextes forestiers variés. Cela limite les possibilités de comparaison en vue de la détermination des critères prépondérants du point de vue de la précision et du coût de ce type d’inventaire. Cet article présente une évaluation de l’influence des caractéristiques des relevés de terrain sur la précision des modèles d’estimation, ainsi que de l’intérêt de l’utilisation de l’information spectrale LiDAR ou issue de fusion avec des données satellitaires RapidEye. L’erreur obtenue en combinant les données LiDAR et RapidEye est de 16,5% pour la surface terrière, 23,7% pour la densité de tiges et 11,7% pour le diamètre moyen. Le choix de la taille de la placette de terrain et du diamètre de recensement ont un impact important sur l’erreur d’estimation. La précision du géoréférencement et le nombre de placettes apparaissent comme cruciaux dans la mesure où ils influencent non seulement l’erreur d’estimation mais également la précision de son évaluation.
APA, Harvard, Vancouver, ISO, and other styles
5

Oui, Jeanne. "Agriculture de précision et tournant environnemental." Réseaux N° 244, no. 2 (2024): 117–49. http://dx.doi.org/10.3917/res.244.0117.

Full text
Abstract:
Le développement des technologies numériques en agriculture s’appuie en partie sur un argumentaire environnemental développé par des entreprises, des politiques, des organismes agricoles. Par leur précision et leur quantification, les données issues de capteurs, les algorithmes, les machines connectées, les services de conseil numériques permettraient de mieux maîtriser les processus de production, et in fine de limiter les pollutions environnementales de l’agriculture productiviste. L’article s’intéresse au paradigme scientifique lié à cette promesse de numérisation, par une étude au sein de communautés agronomiques françaises en productions végétales (écophysiologie des plantes, agro-météorologie, télédétection, agroéquipement, informatique) : quelle gouvernance du tournant environnemental est contenue dans le développement des savoirs, données et technologies numériques au sein des technosciences agricoles ? Ce travail montre que le recours aux savoirs et données numériques en agriculture n’échappe pas au prisme productiviste et réductionniste dominant les savoirs agronomiques sur les productions végétales et participe d’un rapprochement renforcé entre la technoscience agronomique et ses applications commerciales.
APA, Harvard, Vancouver, ISO, and other styles
6

Conti, Marco. "Normes d’écriture et exigences administratives." Revue française d'histoire du livre 142 (October 13, 2021): 107–22. http://dx.doi.org/10.47421/rfhl142_107-122.

Full text
Abstract:
Pour pouvoir administrer une ville, un royaume ou un quelconque patrimoine privé, on devait recourir à une grande quantité de données et les enregistrer. La régularité et l’identification des données dans un écrit comptable sont des caractéristiques fondamentales de ce type d’écritures. Le propos de cet article est d’analyser les formulaires utilisés dans des registres comptables de la ville de Bologne de la fin du XIIIe siècle à la fin du XIVe siècle. L’Archivio di Stato di Bologna conserve aujourd’hui encore une quantité considérable, à l’aune de cette période, de sources de nature fiscale. Leur étude pourra nous permettre de comprendre leur utilisation à des fins comptables, comment ces formulaires ont évolué et pourquoi le notariat bolonais les a pérennisés, jusqu’à être lui-même copié par d’autres pays d’Europe.
APA, Harvard, Vancouver, ISO, and other styles
7

Monnier, Fabrice, Bruno Vallet, Nicolas Paparoditis, Jean-Pierre Papelard, and Nicolas David. "Mise en cohérence de données laser mobile sur un modèle cartographique par recalage non-rigide." Revue Française de Photogrammétrie et de Télédétection, no. 202 (April 16, 2014): 27–41. http://dx.doi.org/10.52638/rfpt.2013.49.

Full text
Abstract:
Depuis quelques années, des véhicules de cartographie mobile ont été développés pour acquérir des données géoréférencées très précises et en grande quantité au niveau du canyon urbain. L'application majeure des données collectées par ces véhicules est d'améliorer les bases de données géographiques existantes, en particulier leur précision, leur niveau de détail et la diversité des objets représentés. On peut citer entre autres applications la modélisation géométrique fine et la texturation des façades, l'extraction de "petits" objets comme les troncs d'arbres, poteaux, panneaux, mobiliers urbain, véhicules,...Cependant, les systèmes de géopositionnement de ces véhicules ne parviennent pas à fournir une localisation d'une précision suffisante pour cette tâche. En particulier, les masques GPS fréquents en milieu urbain sont paliés par les mesures de la centrale inertielle grâce à un algorithme de fusion de données pouvant entraîner une dérive. C'est pourquoi, un recalage est indispensable pour mettre en correspondance ces données mobiles très détaillées avec les bases de données géographiques moins détaillées mais mieux géopositionnées, qu'elles soient 2D ou 3D.Cet article présente une méthode générique et efficace permettant un tel recalage. Le processus est basé sur une méthode de type ICP ("Iterative Closest Point") point à plan.On suppose que l'erreur de géopositionnement, ou dérivevarie de façon non linéaire, mais lentement en fonction du temps. On modélise donc la trajectoire par une "chaîne" ayant une certaine rigidité. A chaque itération, la trajectoire est déformée afin de minimiser la distance des points laser aux primitives planes du modèle.Cette méthode permet d'approximer la dérive par une fonction linéaire par intervalle de temps.La méthode est testée sur des données réelles ( 3,6 millions de points laser acquis sur un quartier de la ville de Paris sont recalés sur un modèle 3D d'environ 71.400 triangles). Enfin, la robustesse et la précision de cet algorithme sont évaluées et discutées.
APA, Harvard, Vancouver, ISO, and other styles
8

Christiaens, Johan, and Karoline Helldorff. "De meilleures données pour la surveillance budgétaire : législation de l’UE sur les statistiques – la clé pour libérer le potentiel de la comptabilité dans le secteur public." Revue Internationale des Sciences Administratives 91, no. 1 (2025): 171–86. https://doi.org/10.3917/risa.911.0171.

Full text
Abstract:
Depuis le début de la crise économique en 2008, la qualité des données disponibles pour le suivi de la discipline budgétaire des États membres est un sujet brûlant au sein des institutions de l’Union européenne (UE) et dans la littérature. La pandémie de COVID-19 a démontré l’insuffisance, non seulement des données, mais aussi des instruments politiques disponibles pour coordonner les efforts et la prise de décision. Dans ce document, nous tentons de libérer le potentiel de la comptabilité du secteur public (CSP) pour aider à l’amélioration des mécanismes de surveillance de l’UE. Au-delà de l’idée de règles comptables normalisées pour l’ensemble du secteur public de l’UE (normes comptables européennes pour le secteur public), nous nous penchons sur un domaine moins controversé de la compétence de l’UE, et nous examinons les conditions relatives à l’introduction d’obligations d’information basées sur les données de CSP dans le cadre de la législation de l’UE sur les statistiques. Remarques à l’intention des praticiens La succession de crises que nous connaissons actuellement pourrait créer une dynamique favorable à un changement dans la politique budgétaire de l’UE. De nouveaux instruments de suivi de la situation budgétaire dans les États membres pourraient s’avérer nécessaires. Les institutions européennes ne peuvent pas imposer les normes comptables européennes pour le secteur public. Toutefois, un nouvel instrument de déclaration normalisé pourrait devenir une législation européenne contraignante s’il se présentait sous la forme d’une méthodologie statistique. Les principes fondamentaux du droit communautaire garantissent que toute nouvelle obligation de déclaration statistique est limitée à ce qui est nécessaire, proportionné et rentable.
APA, Harvard, Vancouver, ISO, and other styles
9

Mukendi, Pierrot. "Système décisionnel et Segmentation : Application aux données judiciaires." British Journal of Multidisciplinary and Advanced Studies 5, no. 4 (2024): 11–22. http://dx.doi.org/10.37745/bjmas.2022.04156.

Full text
Abstract:
L’informatique décisionnelle désigne les méthodes, les outils et les moyens qui permettent de collecter, consolider et modéliser les données d’une entreprise afin d’offrir une aide à la décision et de permettre au corps exécutif de l'entreprise d’avoir une vue d’ensemble de l’activité. Dans le domaine dynamique où la prise de décision basée sur les données occupe une place prépondérante, les entreprises sont constamment à la recherche du Saint Graal de la précision ou, comme nous pourrions l'appeler, des informations clés qui se détachent du bruit et ouvrent la voie du succès. C'est là qu'intervient l'importance de la segmentation des données. Elle n'est pas seulement un mot à la mode, c'est en fait un moteur stratégique qui permet aux entreprises de bénéficier d'une précision ciblée et d'informations pertinentes. Elle est l'élaboration d'un ensemble de données en sous-ensembles multiples, distincts et significatifs qui sont principalement basés sur des critères spécifiques.Il est question dans cet article d’appliquer K-means, qui est une technique de segmentation non hiérarchique sur les données judiciaires afin de les classer en groupes homogènes selon les critères retenus tels que le motif du dossier judiciaire par exemple. Ceci permettra aux gestionnaires de ces instances de mieux comprendre les données, de faire de prédictions, de voir les tendances et d’avoir des perspectives.
APA, Harvard, Vancouver, ISO, and other styles
10

Berrada El Azizi, Taib, Azzeddine Allioui, and Siham Zraoula-Bikourane. "Mise en place d’une cartographie des risques comptables dans les universités publiques marocaines : Résultats d’une recherche-action." Revue Management & Innovation N° 8, no. 2 (2023): 7–28. http://dx.doi.org/10.3917/rmi.208.0007.

Full text
Abstract:
Cette recherche-action vise à soutenir un projet de mise en place de la comptabilité générale dans les universités marocaines en identifiant les risques comptables inhérents à ce processus. Le terrain de recherche choisi pour cette étude est une université pilote qui compte neuf établissements d’enseignement supérieur. Les résultats de cette recherche-action fournissent une cartographie des risques comptables pour cette université pilote, qui peut ensuite servir de modèle pour d’autres universités marocaines. Les résultats de cette recherche-action contribuent à améliorer la gestion comptable des universités publiques marocaines en identifiant les risques comptables les plus courants et en proposant des stratégies pour les gérer efficacement. Les conclusions de cette étude peuvent être utilisées par les responsables de l’enseignement supérieur pour améliorer la transparence et la fiabilité des données financières, et ainsi favoriser une meilleure prise de décision.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Précision des données comptables"

1

Paoli, Jean-Noël. "Fusion de données spatialisées, application à la viticulture de précision." Montpellier, ENSA, 2004. https://hal-agrosup-dijon.archives-ouvertes.fr/tel-01997479.

Full text
Abstract:
La gestion de données spatiales a pris une importance considérable dans de nombreux domaines de l'Agriculture ou de l'Environnement. Ces informations permettent notamment d'envisager la prise en compte de la variabilité spatiale et temporelle d'une culture. Cela implique cependant de fusionner les informations disponibles de manière à effectuer un diagnostic et à proposer des actions adaptées. Les principales difficultés sont la très grande diversité des informations disponibles (numériques ou symboliques, de résolutions spatiales différentes), et les imprécisions et incertitudes associées aux données et à leur localisation. Face à cette problématique, nous proposons une méthode permettant de nous ramener systématiquement à un référentiel qualitatif, et de superposer les différentes informations disponibles au niveau spatial, tout en prenant en compte les imprécisions, les incertitudes, les conflits, et les absences éventuelles d'information. Nous mettons en œuvre une approche nouvelle tant pour la description des informations disponibles que pour leur utilisation. Cette approche utilise la théorie des sous ensembles flous et la théorie des possibilités pour décrire les informations disponibles. La superposition des données au niveau spatial met en œuvre un opérateur d'agrégation basé sur une intégrale de Choquet. Cette approche est appliquée à des données de Viticulture de Précision. Le premier exemple s'intéresse à la sélection de zones de requête imprécises par un utilisateur, et au diagnostic de ces zones. Le second décrit comment générer une carte identifiant les zones à traiter selon deux modalités distinctes. Ce travail conclue à la validité de l'approche proposée, et identifie certaines limites. L'opérateur d'agrégation proposé constitue une base de raisonnement, mais pourra évoluer pour prendre en compte l'ensemble des particularités liées au traitement des données spatiales<br>During the last decade, spatial knowledge management has become increasingly popular in Agriculture and the Environment. These data can be used to consider the spatial and temporal variability of a culture. Nevertheless, this involves the aggregation of all the available data in order to produce a diagnostic and to propose suitable actions. The main problems are the heterogeneity of the different data sets (numeric or symbolic, with different spatial resolutions), and the imprecision and the uncertainty associated with the data and their locations. To overcome these problems, we propose a method to translate all the data into qualitative data and to estimate all the studied variables on the suitable locations. Our method takes into account imprecision, uncertainty, conflicts, and lack of information. We implement a new approach both for the description and for the treatment of the data. The description of the information is based on fuzzy sets and possibility theory. The spatial estimation process is based on a Choquet integral. Our approach is applied on Precision Viticulture data. Our first application is the diagnostic of expert zones manually delineated by experts. Our second application is a field segmentation in order to perform distinct levels of treatment. These examples shows that our approach is valid. Nevertheless, we identify some limitations. Further work is needed to improve our aggregation operator and to consider all the particular aspects of spatial data treatment
APA, Harvard, Vancouver, ISO, and other styles
2

Teller, Pierre. "Une représentation formelle des normes comptables internationales." Nice, 2007. http://www.theses.fr/2007NICE4061.

Full text
Abstract:
L’objet de cette thèse est de décrire le modèle de représentation de l’information financière que nous avons élaboré afin de permettre de traiter celle-ci de manière plus efficace que ce qui se fait actuellement, ce domaine particulier de la représentation des connaissances étant étrangement en retard de ce point de vue. Notre démarche s'inscrit dans un contexte de profond bouleversement des pratiques comptables dans le monde entier, phénomène encore accru à la suite des récents scandales financiers qui, depuis l'affaire Enron, ont mis en lumière le retard des moyens utilisés par rapport à la réalité économique des entreprises. L'adaptation de l'information financière aux techniques modernes de communication et d'échange devient donc un enjeu d’autant plus important que l’environnement réglementaire, partout dans le monde, requiert un reporting toujours plus volumineux et des délais toujours plus courts. Nous proposons avec notre travail une représentation syntaxique et sémantique des nouvelles normes comptables internationales inspirée de techniques assez répandues pour ce genre de tâches, et qui peut être utilisée pour pré-traiter l’information et faciliter son analyse. La représentation syntaxique utilise un formalisme inspiré des logiques de description, qui permet d'introduire des opérateurs logiques non usuels qui sont d'une grande utilité pour modéliser certains aspects caractéristiques des normes comptables. La sémantique est représentée à l'aide d'outils de création et de gestion d'ontologies, qui permettent d'effectuer automatiquement des raisonnement de type classification ou instanciation, tout en étant un bon moyen de véhiculer le sens que nous donnons aux différents concepts utilisés par notre modèle. Nous montrons des cas pratiques d'utilisation d'un tel modèle, afin de mettre en lumière les avantages que représente une telle formalisation de l'information, par exemple pour pouvoir représenter des situations particulières et pouvoir déterminer automatiquement si elles sont conformes aux normes comptables. Ces cas pratiques sont en partie inspirés par des tâches habituellement réalisées dans un audit financier, pour montrer le bénéfice que l'on pourrait tirer de l'utilisation d'un modèle adéquat de l'information, et en partie issus de travaux réalisés en sciences de gestion, pour montrer en quoi un modèle comme le notre représente une solution à des problèmes rencontrés dans ce domaine pour appliquer des méthodes de surveillance sur une grande échelle<br>The subject of this thesis was to build a formal model designed to enhance the representation of financial information. This model allows a more efficient treatment of this kind of information, and in this particular field of data management, there is still a lot of work to be done to reach the level of formalism obtained in other domains. The accounting procedures are facing wide mutations, especially since Enron's bankruptcy. The financial scandals of the early 2000's highlighted the weaknesses of surveillance procedures, which is the reason why regulators all over the world realized that financial information has to change, to match with the economic reality. Two global trends emerge from the modifications of the accounting legal background : the differences between national standards are reduced, and the requirements on financial reporting are more and more important, from a quantitative and a qualitative point of view. Moreover, as the amount of informations grows, the time allowed for its treatment is shortened. The use of the most efficient techniques of data manipulation is therefore a major issue. We are offering a model for financial information, which is composed of a syntactic model and a semantic model, based on the new international accounting standards. The syntactic representation use formalism inspired by description logics. This formalism allows the use of non monotonic logical operators, and these operators were very useful to represent some of the most typical features of accounting standards. The semantic of accounting standards is represented using an ontology, because this tool is very convenient for our purpose, and it allows automatic knowledge-oriented reasoning, like classification within a taxonomy. This ontology is used to fix the meaning of the concepts used in our model. The possibilities of our model are illustrated by practical case studies. These cases show that the availability of this model may greatly improve some tasks related to financial data manipulation
APA, Harvard, Vancouver, ISO, and other styles
3

Yang, Xi. "Essais sur la stabilité du secteur bancaire : analyses sur données comptables des banques américaines." Thesis, Paris 10, 2015. http://www.theses.fr/2015PA100169.

Full text
Abstract:
La crise financière globale de 2007-2009 a révélé la fragilité des banques modernes ainsi que les carences de la réglementation. A la suite de la crise, le secteur bancaire a connu des réformes réglementaires importantes : renforcement de la régulation micro-prudentielle, mise en place de dispositifs ayant des objectifs macroprudentiels et diverses initiatives de séparation des activités. Dans ce contexte, cette thèse, en s’appuyant sur les données américaines, essaie dans un premier temps d’expliquer la vulnérabilité des banques par leurs caractéristiques financières et leur structure organisationnelle. Ensuite, la thèse propose une analyse de l’efficacité de certains nouveaux outils dans le cadre des réformes. Nous trouvons les résultats suivants : 1) Le risque de faillite est plus élevé chez les banques qui adoptent des stratégies agressives pendant la période d’euphorie économique et qui se financent par des fonds instables. Une maison-mère saine (bien capitalisée et rentable) est une source de force des filiales bancaires. Cela vient étayer l’introduction du coussin de capital contracyclique et du ratio de liquidité dans Bâle III. 2) La diversification des activités contribue à la baisse du risque bancaire alors que les engagements croissants en activités non-traditionnelles volatiles semble rendre les banques plus vulnérables. Ceci conforte la nécessité d'une réforme structurelle pour certaines banques universelles. 3) Les ratios de levier prévoient mieux la probabilité de faillite des grandes banques que le ratio pondéré par les risques, tandis que les deux types de ratios sont aussi efficaces pour prévoir la faillite des petites banques. Ce résultat souligne l’importance du renforcement de la réglementation des banques systémiques et implique sa mise en œuvre<br>The 2007-2009 global financial crisis reveals the fragility of modern banking sector and the flaws in bank regulation. In the wake of the crisis, an important number of reforms are carried out: enhancement of micro-prudential regulation, introduction of macro-prudential instruments and separation of activities. In this context, this thesis, using detailed information on the U.S. banking sector, tries to explain bank vulnerability by their financial characteristics and organizational structure. Then the thesis analyzes the efficiency of some new regulatory instruments. Our findings are the following: 1) Banks adopting an aggressive business model in economic boom and banks funded massively with instable liabilities are more likely to fail. A healthy (well-capitalized and profitable) bank holding company is a source of strength for its bank subsidiaries. These findings support the introduction of the countercyclical capital buffer and of the requirements on liquidity in the Basel III framework. 2) A high degree of diversification across different banking activities is associated with important risk reduction benefits while the expansion in non-traditional activities seems to make banks more vulnerable. This indicates the necessity of structural reform for certain universal banks. 3) The leverage ratios are more efficient in predicting failures of large banks than the risk-weighted capital ratio whereas the two types of capital ratios predict the failures of small banks as well as each other. These findings go in line with the reinforcement of regulation on systemically important banks
APA, Harvard, Vancouver, ISO, and other styles
4

Meloche, Hélène. "L'utilité des données comptables dans les décisions de sélection et d'évaluation de performance de portefeuille." Mémoire, Université de Sherbrooke, 1990. http://hdl.handle.net/11143/9049.

Full text
Abstract:
Dans la plupart des décisions à caractère économique, les données boursières jouent un rôle prépondérant. Pourtant, les données comptables dont le bénéfice comptable figurant aux états financiers, servent à fournir de l'information utile pour la prise de décision à caractère économique. Le débat sur l'utilité des données comptables publiées dans les états financiers continue à avoir lieu. Une des questions le plus souvent posée porte plus spécifiquement sur l'utilité de ces données dans les décisions de sélection et d'évaluation de performance de portefeuille. Les résultats de cette recherche nous ont permis de conclure que les décisions de sélection et d'évaluation de performance de portefeuille fondées sur des données comptables sont cohérentes avec les mêmes décisions basées sur des données boursières.
APA, Harvard, Vancouver, ISO, and other styles
5

Paradis, Jocelin. "Modèle théorique de détermination du taux de capitalisation ajusté au risque basé sur des données comptables." Mémoire, Université de Sherbrooke, 1989. http://hdl.handle.net/11143/8233.

Full text
Abstract:
Voici rassemblées les diverses parties de ma recherche sur la détermination d'un taux de capitalisation ajusté au risque. C'est non sans obligeance que je vous incite à lire ce mémoire comme s'il faisait partie intégrale de la littérature concernant ce sujet. L'étendue de ce champs de recherche étant particulièrement vaste, aucune étude ne saurait être exhaustive et porter sur l'ensemble de la question. C'est évidemment pour cette raison que ce mémoire ne traite que d'une partie de ce thème. L'objectif implicite de cette recherche est sans contredit de tenter de concevoir un modèle théorique permettant d'estimer l'importance du risque supporté par les propriétaires d'entreprises dont les titres de participation ne sont pas publiquement transigés. Bien que ce sujet ne soit pas dénué d'intérêt, on constate qu'un nombre restreint de recherches ont été effectuées sur cette question précise. C'est sans doute la grande difficulté que représente l'obtention des données nécessaires à toute recherche impliquant des entreprises privées qui explique la faible popularité de ce thème. Une telle limitation circonscrit presque inévitablement le traitement d'un sujet à un point de vue théorique. Malgré ce fait, c'est dans une perspective élargie et sans perdre de vue les écarts souvent prononcés qui existent entre les deux démarches que j'ai entrepris cette étude. Je considère qu'une telle optique (si elle est continuellement maintenue tout au long d'une recherche) peut, dans une certaine mesure, servir de panacée. J'aimerais finalement ajouter que cette étude s'inscrit en partie dans la lignée de celles qui prétendent vouloir bâtir sur des fondations existantes une meilleure adéquation entre la modélisation et la réalité.
APA, Harvard, Vancouver, ISO, and other styles
6

Favetta, Franck. "Ambiguïtés dans les langages visuels d'interrogation spatiale et précision topologique des bases de données spatiales." Marne-la-Vallée, 2003. http://www.theses.fr/2003MARN0156.

Full text
Abstract:
L'outil informatique et l'information spatiale, comme les Systèmes d'Information Géographiques, sont de plus en plus accessibles à tous, en particulier à des utilisateurs non-experts. Ce constat implique pour les interfaces un besoin grandissant de convivialité. Dans le domaine de l'interrogation spatiale, les langages visuels sont très prometteurs. Cependant, ils se heurtent à d'importants problèmes d'ambiguïtés qui les rendent difficilement utilisables. Concernant le pouvoir d'expression spatial, certaines requêtes peuvent nécessiter une précision topologique supérieure à une description des relations des couples d'objets. Ces problèmes sont liés et le pouvoir d'expression topologique peut aussi rencontrer des problèmes d'incohérence. Dans le but de pallier ces problèmes, une taxonomie des ambiguïtés a été réalisée et des solutions ont été testées auprès d'utilisateurs potentiels. Une notion de modèles topologiques ternaires a aussi été introduite. En particulier, un modèle nommé 27-Intersections, qui étend un modèle topologique existant, permet d'apporter une grande précision entre trois régions et assure la cohérence de leurs relations. Au-delà des langages d'interrogation, les modèles ternaires sont utiles à la description d'images, notamment à la description d'images médicales où un modèle a été appliqué. L'intégration du modèle des 27-Intersections dans OpenGIS a été proposée<br>Today, a growing panel of users has access to Information Systems and spatial datas, as Geographical Information Systems. This panel includes an increasing number of non-experts users. This fact implies a big need of user-friendly interfaces. In the domain of spatial queries, visual languages rightly meet this requirement. Nevertheless, visual languages suffer from important ambiguities that make them hard to use. Concerning the spatial expressive power, certain queries need a better topological precision than a description of the set of relations between two objects. These issues are linked and the topological expressive power can also meet problems of inconsistency. In order to solve these problems, a taxonomy of ambiguities has been built and solutions have been tested with potential users. A notion a ternary topological models has also been introduced. Especially, a model called 27 Intersections model, which extends an existing model, provides a high precision between three regions and guaranties consistency of their relations. Beyond query languages, ternary models are useful for image description, particularly in the field of medical image description in which a model has been proposed. Integration of the 27 Intersections model in OpenGIS has been presented
APA, Harvard, Vancouver, ISO, and other styles
7

Gabriel, Edith. "Détection de zones de changement abrupt dans des données spatiales et application à l'agriculture de précision." Montpellier 2, 2004. http://www.theses.fr/2004MON20107.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Ferte, Charles. "Modèles prédictifs utilisant des données moléculaires de haute dimension pour une médecine de précision en oncologie." Thesis, Paris 11, 2013. http://www.theses.fr/2013PA11T101.

Full text
Abstract:
Le niveau médiocre des taux de réponses et des améliorations de survie lorsque des stratégies conventionnelles sont appliquées souligne la nécessité de développer des outils prédictifs performants, robustes et applicables en clinique. La démocratisation des technologies d’analyses à haut-débit est le substrat de la médecine de précision permettant le développement de modèles prédictifs capables d’orienter les stratégies thérapeutiques et la définition d’une nouvelle taxonomie des cancers par l’intégration de données moléculaires de haute dimension. A travers cette thèse, nous avons d’abord analysé des données publiques d’expression génique de cancer bronchique non à petites cellules dans le but de prédire la probabilité de survie à trois ans. Le fort pouvoir prédictif de la TNM seule et la faible taille des cohortes de validation ont malheureusement limité la possibilité de traduire nos résultats en clinique. Nous avons ensuite développé un prédicteur du phénotype « KRAS muté » spécifique du cancer colorectal, permettant d’identifier de nouveaux traits moléculaires responsables de ce phénotype et d’améliorer la prédiction de la réponse au cetuximab chez les patients KRAS sauvage. Enfin, nous avons combiné les données moléculaires des panels de lignées cellulaires CCLE et Sanger avec les données des cohortes du TCGA pour produire des prédicteurs performants de la sensibilité aux drogues. Ces modèles sont concordants avec des screens produits par interférence RNA et permettent d’expliquer la réponse extrême de patients sectionnés dans le programme de screening moléculaire MOSCATO.Les défis spécifiques posés par les données moléculaires de haute dimension dans le développement d’outils prédictifs applicables en clinique sont discutés dans cette thèse<br>The mediocre level of the rates of answers and the improvements of survival when conventional strategies are applied underlines the necessity of developing successful, strong and applicable predictive tools in private hospital. The democratization of the technologies of analyses with top-debit(-flow) is the substratum of the medicine of precision allowing the development of predictive models capable of directing the therapeutic strategies and the definition of a new taxonomy of cancers by the integration of molecular data of high dimension(size).Through this thesis(theory), we analyzed at first public data of genic expression of bronchial cancer not in small cells(units) with the aim of predicting the probability of survival in three years. The strong predictive power of the only TNM and
APA, Harvard, Vancouver, ISO, and other styles
9

Selingue, Maxime. "amélioration de la précision de structures sérielles poly-articulées par des méthodes d'apprentissage automatique économes en données." Electronic Thesis or Diss., Paris, HESAM, 2023. http://www.theses.fr/2023HESAE085.

Full text
Abstract:
L'évolution des méthodes de production, dans le contexte de l'industrie 4.0, conduit les robots collaboratifs et industriels à être utilisés pour des tâches telles que le perçage, l'usinage, ou l'assemblage.Ces tâches demandent une précision de l'ordre du dixième de millimètre, alors que la précision de ces robots est de l'ordre de un à deux millimètres.Cet état de fait conduit les intégrateurs robotiques à proposer des méthodes de calibration visant à établir un modèle de comportement du robot plus fiable et représentatif du robot réel.Ainsi, les méthodes de calibration analytiques modélisent les défauts affectant la précision des robots industriels, à savoir les défauts géométriques, la compliance des articulations, les erreurs de transmissions et la dérive thermique.Face à la complexité de l'identification expérimentale des paramètres de certains de ces modèles analytiques, des méthodes de calibration hybrides ont été développés.Ces méthodes hybrides couplent un modèle analytique simple avec une approche par apprentissage automatique dont le rôle est de prédire fidèlement les erreurs résiduelles de positionnement (engendrées par la non-exactitude du modèle analytique).Ces défauts peuvent alors être compensées par anticipation, au travers d'un algorithme de compensation.En revanche, ces méthodes demandent beaucoup de temps, de données, et ne sont plus valables lorsque la charge utile du robot change.L'objectif de cette thèse est d'améliorer les méthodes de calibration hybrides pour les rendre applicables dans des contextes industriels.Dans ce sens, plusieurs contributions ont été apportées.D'abord, deux méthodes basées sur des réseaux de neurones permettant, avec très peu de données, d'adapter le modèle hybride (i.e. le réglage d'un jeux de poids spécifique) à une nouvelle charge utile dans un sous-espace de travail du robot.Ces deux méthodes utilisent respectivement un apprentissage par transfert et une interpolation de prédictions.Puis, une méthode de calibration hybride par apprentissage actif utilisant une régression par processus gaussien est présentée.Via cette approche, dans un processus itératif, le système décide des données pertinentes à acquérir de manière autonome, ce qui permet une calibration optimisée en données et en temps<br>The evolution of production methods in the context of Industry 4.0 has led to the use of collaborative and industrial robots for tasks such as drilling, machining, and assembly. These tasks require an accuracy of around a tenth of a millimeter, whereas the precision of these robots is in the range of one to two millimeters. Robotic integrators had to propose calibration methods aimed at establishing a more reliable and representative model of the robot's behavior in the real world.As a result, analytical calibration methods model the defects affecting the accuracy of industrial robots, including geometric defects, joint compliance, transmission errors, and thermal drift. Given the complexity of experimentally identifying the parameters of some of these analytical models, hybrid calibration methods have been developed. These methods combine an analytical model with a machine learning approach whose role is to accurately predict residual positioning errors (caused by the inaccuracies of the analytical model). These defects can then be compensated for in advance through a compensation algorithm.However, these methods require a significant amount of time and data and are no longer valid when the robot's payload changes. The objective of this thesis is to improve hybrid calibration methods to make them applicable in industrial contexts. In this regard, several contributions have been made.First, two methods based on neural networks that allow the adaptation of the hybrid model to a new payload within a robot's workspace with very little data. These two methods respectively rely on transfer learning and prediction interpolation.Then, a hybrid calibration method using active learning with Gaussian process regression is presented. Through this approach, in an iterative process, the system autonomously decides on relevant data to acquire, enabling optimized calibration in terms of data and time
APA, Harvard, Vancouver, ISO, and other styles
10

Sellami, Mohamed. "Mesure de la pertinence des données comptables par le modèle de Feltham et Ohlson (1995) : cas de la France." Paris, CNAM, 2009. http://www.theses.fr/2009CNAM0659.

Full text
Abstract:
This thesis focuses on the relevance of accounting data measure’s of firms listed on the Paris Stock Exchange by using the Feltham and Ohlson (1995) model. We propose, in the first part, a classification of empirical studies that examine the relevance of accounting information measure’s. Then, we underline the theoretical and methodological limits associated to the results of these studies. In order to overcome some of these limits, we apply, at the second part, the theoretical framework of Feltham and Ohlson (1995). So, we test the linear information dynamics relation. It includes conditions related to the persistence of abnormal operating earnings, accounting conservatism, and the growth of operating assets. These conditions verified, we use regression methods to test the Feltham and Ohlson model over the period 1992–2001. The results show that accounting data are irrelevant measures. In the third part, we propose an extension of the Feltham and Ohlson model. It finds its theoretical foundation in the context of the economic approach of information. Firstly, we introduce the stochastic efficient frontier method. It generates an index of efficiency (relevance) per firm. Then, we conduct analysis by sector and market quotation. Finally, we find out the determinants of inefficiency (irrelevance) of accounting data<br>Cette thèse s’intéresse à la mesure de la pertinence des données comptables des entreprises cotées sur la Bourse de Paris en utilisant le modèle de Feltham et Ohlson (1995). Nous proposons, dans une première partie, une classification des travaux empiriques portant sur la mesure de la pertinence des informations comptables et nous dégageons les limites théoriques et méthodologiques associées aux résultats desdits travaux. Pour pallier certaines de ces limites, nous appliquons, dans une deuxième partie, la démarche théorique de Feltham et Ohlson (1995). Pour ce faire, nous testons la relation linéaire de l’information dynamique,notamment, les conditions liées à la persistance des bénéfices anormaux d’exploitation, au comportement « prudent » des dirigeants et à la croissance des actifs d’exploitation. Celles-ci étant vérifiées, nous recourons aux méthodes de régression pour tester le modèle de Feltham et Ohlson entre 1992 et 2001. Les résultats révèlent que les données comptables sont des mesures peu pertinentes. A l’issue de ces résultats, nous proposons, dans une troisième partie, un complément du modèle de Feltham et Ohlson. Ce dernier trouve ses fondements théoriques dans le cadre de l’approche économique de l’information. Partant des apports de cette approche aux recherches en comptabilité, nous introduisons, tout d’abord, la méthode de la frontière efficiente stochastique. Celle-ci permet de générer un indice d’efficience (pertinence) par entreprise. Ensuite, nous menons des analyses par secteur d’activité et marché de cotation pour dégager les indices qui leurs sont afférents. Enfin, nous déterminons les variables de l'inefficience (non pertinence) des données comptables
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Précision des données comptables"

1

Ontario. Esquisse de cours 12e année: Mathématiques de la gestion des données mdm4u cours préuniversitaire. CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Ontario. Esquisse de cours 12e année: Sciences de l'activité physique pse4u cours préuniversitaire. CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Ontario. Esquisse de cours 12e année: Technologie de l'information en affaires btx4e cours préemploi. CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Ontario. Esquisse de cours 12e année: Études informatiques ics4m cours préuniversitaire. CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Ontario. Esquisse de cours 12e année: Mathématiques de la technologie au collège mct4c cours précollégial. CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Ontario. Esquisse de cours 12e année: Sciences snc4m cours préuniversitaire. CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Ontario. Esquisse de cours 12e année: English eae4e cours préemploi. CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Ontario. Esquisse de cours 12e année: Le Canada et le monde: une analyse géographique cgw4u cours préuniversitaire. CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Ontario. Esquisse de cours 12e année: Environnement et gestion des ressources cgr4e cours préemploi. CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Ontario. Esquisse de cours 12e année: Histoire de l'Occident et du monde chy4c cours précollégial. CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Précision des données comptables"

1

"La fausse précision des données." In Grandeur et misère de nos choix économiques. Les Presses de l’Université de Laval, 2018. http://dx.doi.org/10.1515/9782763739649-049.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

"La fausse précision des données." In Grandeur et misère de nos choix économiques. Presses de l'Université Laval, 2018. http://dx.doi.org/10.2307/j.ctv1gbrxzd.51.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

"Les données comptables et les marchés financiers." In Théories et modèles comptables. Presses de l'Université du Québec, 2011. http://dx.doi.org/10.2307/j.ctv18ph17q.5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

DE’ FAVERI TRON, Alvise. "La détection d’intrusion au moyen des réseaux de neurones : un tutoriel." In Optimisation et apprentissage. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9071.ch8.

Full text
Abstract:
La détection d'intrusion est un concept clé dans la sécurité. Elle vise à analyser l'état actuel d'un réseau en temps réel et à identifier les anomalies potentielles qui se produisent dans le système. Un réseau de neurones à réaction formé sur l'ensemble de données NSL-KDD a pour objectif de maximiser la précision de la reconnaissance de nouveaux échantillons de données.
APA, Harvard, Vancouver, ISO, and other styles
5

Van Quickelberghe, Étienne. "NOUVELLES DONNÉES POUR L’ÉTUDE DE TARḪUNTASSA." In Administrations et pratiques comptables au Proche-Orient ancien. Peeters Publishers, 2024. http://dx.doi.org/10.2307/jj.20261347.12.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

"La collecte, l’analyse et l’interprétation des données." In Méthodologie de recherche et théories en sciences comptables. Presses de l'Université du Québec, 2019. http://dx.doi.org/10.2307/j.ctv10qqxkh.10.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Tabb, Kathryn. "VI. La psychiatrie doit-elle être précise ? Réductionnisme, données massives et révision nosologique dans la recherche en santé mentale." In Promesses et limites de la psychiatrie de précision. Hermann, 2023. http://dx.doi.org/10.3917/herm.gauld.2023.01.0161.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Mangeot, Mathieu, and Valérie Bellynck. "Un devin de microstructures." In Lexique(s) et genre(s) textuel(s) : approches sur corpus. Editions des archives contemporaines, 2020. http://dx.doi.org/10.17184/eac.2921.

Full text
Abstract:
Dans cet article, nous présentons un outil pour annoter une ressource non structurée ou semi-structurée, de façon à automatiser l’import de ses données dans un environnement générique facilitant et uniformisant son exploitation. Cet outil s’appuie sur le calcul d’une signature, caractérisant la ressource par des informations comptables sur ses éléments, et sur des heuristiques exploitant les statistiques de la signature pour repérer les entrées et la microstructure de chaque entrée dans le cas d’une ressource lexicale à importer dans la plateforme de bases lexicales Jibiki. Le résultat produit est géré dans iPolex, un entrepôt dédié aux traitements de fichiers de ressources lexicales permettant d’y ajouter des méta-données. La plateforme Jibiki accède à iPoLex pour importer directement des ressources lexicales bien formées et suffisamment renseignées. Le processus d’import ainsi constitué est utilisé pour créer et peupler des bases lexicales dans Jibiki. Les ressources ainsi importées sont ensuite consultables et éditables en ligne.
APA, Harvard, Vancouver, ISO, and other styles
9

Delage, Sandrine. "L'empreinte des dirigeants." In L'empreinte des dirigeants. Presses de l’EHESP, 2011. http://dx.doi.org/10.3917/ehesp.dumon.2011.01.0147.

Full text
Abstract:
Avec la contribution de Sandrine Delage se ferme le recueil des textes produits par les participants d’Hôpital Plus. À partir de l’analyse d’un projet, mené pendant plus de cinq ans, l’auteur nous montre les compétences sollicitées par une telle opération, narrée avec précision : « l’attention vigilante » à tous les détails comme aux données structurantes, pour reprendre un terme décrivant le travail dans les organisations à haut risque, la compréhension de chacun pour articuler le « haut » et le « bas », l’amont et l’aval, l’écoute des sentiments dans la retenue, la capacité à être en relation avec tous, la faculté à surmonter les déceptions et l’amertume, jamais exprimées, même à mi-mot, mais souvent présentes, l’ingéniosité et la créativité stimulées par l’analyse des faits et dans la confrontation des hypothèses. Avec Sandrine Delage, l’empreinte devient si discrète que sa personne semble s’effacer. C’est pour mieux laisser venir l’inconnu, s’adapter, réfléchir à ce qui survient. Une présence en creux n’est pas absente, mais réceptive. Là, tout n’est qu’exigence et mesure, ruse, calme et droiture.
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Précision des données comptables"

1

Baranes, M., and T. Fortin. "Planification et chirurgie guidée - Avis d’experts : Apports des nouvelles technologies en implantologie : de la planification à la réalisation de la prothèse provisoire immédiate." In 66ème Congrès de la SFCO. EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206601011.

Full text
Abstract:
Les dernières technologies informatiques ainsi que le développement des imprimantes 3D ouvrent des perspectives intéressantes en terme de diagnostic et de thérapeutique en implantologie (1). Le plan de traitement prothétique doit guider le choix du nombre et du positionnement des implants. Les logiciels de planification implantaire permettent de superposer les fichiers DICOM (Digital Imaging and Communications in Medicine) de limagerie tridimensionnelle issue du CBCT et les données numériques de surface issues d’empreintes optiques ou de la numérisation de modèles conventionnels (2). Les modélisations occlusales peuvent être elles aussi réalisées virtuellement en statique et dynamique via l’utilisation darticulateurs virtuels (3,4). Un guide chirurgical est alors imprimé permettant de positionner les implants selon la planification virtuelle. Dans certains cas, la restauration provisoire peut être prévue à l’avance et mise en place à lissue de lintervention (5,6). Bien quil soit établit que la chirurgie guidée soit plus précise que la chirurgie à main levée (7), son utilisation en pratique quotidienne a été ralentie en grande partie à cause du coût de fabrication élevé. Le développement récent dimprimantes 3D de bureau de haute précision (8,9) et la multiplicité des logiciels de planification implantaire ont permis le développement de la chirurgie guidée. Cependant, à chaque étape du flux numérique, des imprécisions peuvent se cumuler pouvant aboutir à des erreurs de positionnement ayant des conséquences potentiellement graves : proximité avec les racines adjacentes, perforation des racines, lésion nerveuse. La précision des guides chirurgicaux sté- réolithographiques dépend de nombreux paramètres : lempreinte, l’impression du guide, le matériau utilisé, la nature du support, lexpérience du praticien. Les empreintes optiques réalisées avec des scanners intra-oraux de plus en plus puissants présentent de nombreux avantages par rapport aux techniques conventionnelles en terme de rapidité, de précision et de reproductibilité. (10-14). Les guides peuvent être à appui osseux, muqueux, dentaire ou mixte. Une revue systématique de la littérature de Gallardo et coll. en 2017 (15) compare la précision des guides chirurgicaux en fonction du type de support. Cette revue conclut que les guides à appui osseux présentent le plus de déviation au niveau de langle, du point dentrée et de la localisation de lapex de l’implant par rapport aux guides à appuis dentaires. Les guides à appuis muqueux montrent moins de déviation par rapport aux guides à appuis osseux. Les auteurs nont pas trouvé de différence statistiquement significative entre les guides à appuis dentaires et muqueux. Selon L’étude de Cassetta publiée en 2017 (16), lexpérience du praticien influence la précision du positionnement des implants en chirurgie guidée. Un praticien novice en implantologie présente plus de déviation sur le positionnement des implants avec lutili- sation d’un guide chirurgical stéréolithographique quun praticien expérimentée. La chirurgie implantaire guidée reste un outil et nécessite une expérience chirurgicale. Le flux numérique en implantologie peut aujourdhui se réaliser de la prise d’empreintes d’étude à la fabrication de la restauration prothétique implantaire en passant par la conception et l’impression d’un guide chirurgi- cal. Ce flux est une aide précieuse en terme de communication avec le patient mais aussi avec le prothésiste, il permet daugmenter la reproductibilité des résultats et daboutir à une restauration prothétique esthétique et fonctionnelle.
APA, Harvard, Vancouver, ISO, and other styles
2

Pajot, T., S. Ketoff, and L. Bénichou. "Chirurgie implantaire guidée : acquisition, planification, modélisation et production d'un guide chirurgical. Mise en place d'une chaine numérique pour la création interne et l'utilisation de guides chirurgicaux." In 66ème Congrès de la SFCO. EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206602006.

Full text
Abstract:
Introduction : Devenue incontournable de nos jours pour la réhabilitation de patients présentant des édentements unitaires, partiels ou totaux, la chirurgie implantaire a connu ces dernières années de nombreuses évolutions. Même si les mesures radiographiques et l'analyse des modèles d'étude physiques sont toujours les ressources les plus utilisées par les praticiens pour recueillir les différentes données nécessaires à la prise en charge du patient, la révolution numérique et l'avènement de l'impression en trois dimensions (3D) ont récemment beaucoup fait évoluer les pratiques et offrent de nouveaux horizons. C'est dans cet esprit qu'une chaine méthodologique complétement numérique a été mise en place pour la création de guides chirurgicaux implantaires à l'aide d'une imprimante 3D. OBSERVATION : L'auteur évoquera les différents éléments utilisés dans le service nécessaires à la mise en place de cette chaine digitale (Cone Beam, caméra d'empreintes optiques intra-orale, logiciel de planification, imprimante 3D) avant de présenter différents cas réalisés à l'aide de celle-ci. DISCUSSION : L'utilisation d'une telle chaine dans un service hospitalier n'est pas simple et son impact difficile à évaluer. L'auteur reviendra donc dans un premier temps sur les différents problèmes rencontrés lors de la création des différents guides chirurgicaux (un point sera notamment fait sur la législation concernant l'utilisation de ces guides imprimés en 3D dans et par un établissement hospitalier). Dans un second temps, on évaluera également l'intérêt de se doter d'une telle chaine numérique : l'intérêt financier (pour l'hôpital mais aussi pour le patient), le temps imparti à la prise en charge du patient (nombre et durée des consultations, temps dédié à la planification implantaire), et l'intérêt chirurgical (notamment l'évaluation de la précision de la thérapeutique implantaire). CONCLUSION : Les nouvelles technologies font évoluer nos pratiques. Si elles nécessitent initialement un investissement financier et humain important (temps d'adaptation, courbe d'apprentissage ), elles permettent à terme et utilisées dans de bonnes indications de faciliter et d'améliorer la prise en charge des patients.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Précision des données comptables"

1

Amor, S. D., C. G. Couëslan, M. S. Gauthier, et al. Regional lake-sediment geochemical data from northern Manitoba (NTS 064-G): reanalysis data and QA/QC evaluation. Natural Resources Canada/CMSS/Information Management, 2024. http://dx.doi.org/10.4095/pmnwznphzq.

Full text
Abstract:
Le présent rapport présente de nouvelles données géochimiques et les résultats de l’assurance de la qualité et du contrôle de la qualité (AQ/CQ) de la réanalyse d’échantillons de sédiments lacustres prélevés dans le nord du Manitoba (SNRC 64-G), prélevés sur une superficie approximative de 13 300 km2 avec une densité moyenne d’un échantillon par 15 km2. Les premiers programmes d’échantillonnage ont été réalisés en 1984 et les résultats sont présentés dans le dossier public 1105 de la Commission géologique du Canada. Des échantillons de sédiments lacustres provenant de 881 sites ont été réanalysés entre 2020 et 2022. Les échantillons ont été mesurés pour 65 éléments par aquarège modifiée – spectrométrie de masse à plasma à couplage inductif, et pour 35 éléments par analyse d’activation neutronique instrumentale. Pour garantir des données géochimiques de haute qualité, les données ont été évaluées pour en vérifier l’exactitude, la précision et l’adéquation à l’usage. Les résultats de l’AQ/CQ ont permis d’identifier plusieurs éléments à surveiller attentivement en vue d’analyses futures.
APA, Harvard, Vancouver, ISO, and other styles
2

Vilain, Vincent. Protéger la vie privée via un réseau adversarial d’attaque de réidentification. Observatoire international sur les impacts sociétaux de l'intelligence artificielle et du numérique, 2024. http://dx.doi.org/10.61737/tabe1427.

Full text
Abstract:
Avec la précision des systèmes actuels GPS, les services géolocalisés sont devenus très populaires. Cette utilisation de plus en plus importante génère une très grande quantité de données de mobilité. Ces données peuvent servir à la planification urbaine, pour les transports en commun ou le développement de routes. Elles peuvent aussi servir à cibler des publicités à leurs utilisateurs. Pour protéger la vie privée des utilisateurs de ces services géolocalisés, il est important de trouver une méthode permettant de parer les attaques menaçant la vie privée à travers l’accès à ces données sensibles. Pour cela, les travaux de recherche de mon équipe d’accueil visent à élaborer des mécanismes de défense basés sur les attaques adversariales, à savoir des mécanismes qui apprennent les défenses en utilisant l’apprentissage des attaques [11]. Une de ces attaques est l’attaque de réidentification des utilisateurs. Elle repose sur un deuxième modèle qui a pour but d’assigner un utilisateur à une trajectoire. Notre projet a pour but de créer une librairie Python qui sera utilisée dans le projet en cours de développement par mon équipe. Cependant, nous l’avons conçu de façon modulaire sous la forme d’une librairie que nous avons appelée MobiDeel. Cela destine ce travail à une utilisation plus large permettant à d’autres chercheurs travaillant sur les données de mobilité et les mécanismes de défense de la vie privée de tester facilement leurs méthodes face à des attaques de réidentification. La librairie étant open-source, la communauté de chercheurs peut participer librement à son développement.
APA, Harvard, Vancouver, ISO, and other styles
3

Amor, S. D., C. G. Couëslan, M. S. Gauthier, et al. Regional lake-sediment geochemical data from northern Manitoba (NTS 064-J and 064-K): reanalysis data and QA/QC evaluation. Natural Resources Canada/CMSS/Information Management, 2024. http://dx.doi.org/10.4095/pj2ggjxa5s.

Full text
Abstract:
Ce rapport présente les résultats des données géochimiques, de l’assurance de la qualité et du contrôle de la qualité de la réanalyse d’échantillons de sédiments lacustres prélevés dans le nord du Manitoba (SNRC 064-J et 064-K). Les programmes d’échantillonnage originaux ont été menés en 1975, et les résultats sont présentés dans les dossiers publiques 320 (SNRC 064-J) et 321 (SNRC 064-K) de la Commission géologique du Canada. Des échantillons de sédiments lacustres provenant de 1 798 sites ont été réanalysés, couvrant une superficie d’environ 26 000 km2, avec une densité moyenne d’un échantillon par 13 km2. Les échantillons ont également été réanalysés à partir de programmes plus détaillés menés la même année, dans les coins nord-ouest et nord-est du SNRC 064-J et 064-K, respectivement, donnant 208 échantillons supplémentaires et une densité moyenne d’un échantillon par 7 km2 sur une superficie d’environ 3 000 km2. Les échantillons ont été mesurés pour 65 éléments par l’intermédiaire de l’aqua-régia modifié – ICP-MS, et pour 35 éléments par l’INAA. Afin d’assurer des données géochimiques de haute qualité, l’exactitude, la précision et l’aptitude à l’utilisation ont été évaluées.
APA, Harvard, Vancouver, ISO, and other styles
4

Campbell, Bryan, Michel Magnan, Robert Normand, Elizabeth Labonté, and Léo Lamy-Laliberté. Développement durable : Vers une mesure de l’intensité carbone des activités municipales au Québec. CIRANO, 2025. https://doi.org/10.54932/duse4052.

Full text
Abstract:
Le projet vise à élaborer un modèle de tableau de bord des émissions de gaz à effet de serre (GES) pour les municipalités québécoises. Aux fins du tableau de bord, les émissions de GES sont converties en équivalent carbone. Ce tableau de bord se focalise sur les émissions de portées 1 et 2 découlant des activités de la ville, telles que consignées dans les états financiers de celle-ci. Globalement, la méthodologie utilisée repose sur l’intersection entre les états financiers d’une ville et sa réalité d’exploitation amenant des émissions de carbone. Compte tenu des connaissances actuelles, les secteurs d’activité suivants sont ciblés, car ils représentent des sources potentielles importantes d’émissions de carbone sur lesquelles les villes ont une capacité d’action directe : 1) le transport; 2) la consommation d’énergie stationnaire (gaz et électricité), essentiellement pour le parc immobilier; 3) la gestion des matières résiduelles (y compris le traitement des eaux usées). Quatre villes ont accepté de participer à ce projet-pilote : Trois-Rivières, Victoriaville, Varennes et Nicolet. L’objectif est de fournir un cadre analytique simple et rigoureux aux principaux acteurs pour que la mesure des émissions de GES puisse s’intégrer dans leur politique financière et leur reddition des comptes. Les municipalités et les autres organismes municipaux appliquent les normes comptables canadiennes pour le secteur public établies par le Conseil sur la comptabilité dans le secteur public (CCSP). Cette normalisation apporte de la clarté et permet de comparer facilement les villes entre elles sur le plan financier et sur celui de l’exploitation. En outre, les règles et l’encadrement du ministère des Affaires municipales renforcent cette standardisation. En effet, chaque poste budgétaire rend compte de l’ensemble des factures et des déboursés pour un bien ou un service donné. Or, ces factures reflètent à la fois un prix unitaire et une quantité donnée. Sur la base d’analyse en profondeur des comptes budgétaires composant le grand livre comptable, nous avons repéré ceux qui contiennent des dépenses génératrices d’émissions de carbone. Les déboursés sous-tendant ces comptes (essentiellement les factures qui les constituent) sont ensuite revus afin de déterminer les prix unitaires et les quantités d’intrants unitaires (p. ex. litres d’essence) consommées. Pour terminer, en nous appuyant sur les protocoles reconnus et des données de balisage (Protocole des GES et base de données ecoinvent), nous avons associé une quantité d’émissions de carbone par unité d’intrant consommée et, par conséquent, estimé la quantité totale de carbone émise pour un compte budgétaire donné. Un ratio tonnes de carbone émises par dollar dépensé peut alors être inféré pour les trois grands secteurs d’activité visés. On produit pour chaque ville un tableau de bord de synthèse s’appuyant sur une méthodologie standardisée et des hypothèses validées. Nos analyses reflètent le fait que l’intensité carbone par dollar dépensé est conditionnelle à certains choix stratégiques : utilisation d’électricité ou de gaz naturel pour le chauffage des bâtiments, utilisation de véhicules électriques ou à essence, collecte et gestion de déchets sélective avec ou sans obligation de compostage. D’autres dimensions (p. ex. la superficie de la municipalité) peuvent également avoir un effet sur l’intensité carbone des dépenses et sont également examinées, mais la mesure de leur impact exige un échantillonnage plus grand. Enfin, nos travaux font également ressortir un certain nombre d’enjeux dans l’utilisation systématique de l’approche proposée par un plus grand nombre de municipalités. La résolution de ces enjeux nécessite de poser certaines hypothèses et d’effectuer d’autres manipulations, que nous analysons.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography