To see the other types of publications on this topic, follow the link: Gestion des données comptables.

Dissertations / Theses on the topic 'Gestion des données comptables'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Gestion des données comptables.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Lejard, Christophe. "La titrisation : enjeux en termes de communication comptable et financière." Thesis, Montpellier 1, 2011. http://www.theses.fr/2011MON10065/document.

Full text
Abstract:
La crise financière liée aux emprunts hypothécaires subprime a mis en lumière aux yeux du public le recours à une technique d'ingénierie financière complexe : la titrisation. Le recours à la titrisation a suivi une croissance exponentielle durant la dernière décennie, la transaction se constituant en tant que moyen de financement privilégié aux Etats-Unis et en Europe. L'objectif de ce travail doctoral est d'apprécier les enjeux que véhicule la titrisation en termes de communication comptable et financière des groupes bancaires cotés, au regard de l'intérêt que confère la transaction quant à la satisfaction des intérêts du dirigeant. La recherche s'organise en deux volets. Le premier vise à déterminer et expliquer l'impact de l'annonce d'une titrisation par les banques sur le cours de leur action. Le second traite des conséquences du choix du dirigeant de structurer la transaction en hors bilan sur les éléments comptables suivants : le taux de rentabilité économique, le taux d'endettement, le ratio de Bâle, et le niveau de risque de crédit. Les résultats de cette étude démontrent que, si le marché réagit négativement à l'annonce de la transaction, le recours à la titrisation, notamment lorsque celle-ci revêt une apparence hors bilan, s'inscrit en adéquation avec les intérêts personnels du dirigeant
Financial crisis due to subprime mortgage loans put in light to public the use of a complex financial engineering technique : the securitization. Recourse to securitization presents an exponential growth during the last decade, as this kind of transaction is nowadays used as the preferential tool of financing in the USA and Europe. This dissertation aims to appreciate issues conveyed by the use of securitization in terms of accounting and financial communication for listed banking groups, taking into account interests brought by this transaction to the manager. This research is made following two steps. The first step aims to determine and explain the impact due to securitization announcement by banks onto share price. The second step deals with consequences of manager's choice to design transaction off-balance sheet on the following accounting items : return on assets, leverage, Basle ratio, and level of credit risk. Results from this research bring to light that, in spite of a negative market perception during the announcement of the transaction, the use of securitization and particularly when it appears as off-balance sheet, is adequate to satisfy manager's own interests
APA, Harvard, Vancouver, ISO, and other styles
2

Greusard, Olivier. "Anti-corruption laws and firms behavior : lessons from the FCPA enforcement activity." Thesis, Paris 1, 2019. http://www.theses.fr/2019PA01E052.

Full text
Abstract:
L’impact de la régulation sur le comportement des entreprises est un sujet de débat récurrent où s’opposent les partisans d’une plus grande intervention publique et leurs contradicteurs. Dans cette thèse, j’étudie la réaction des entreprises visées et celle de leurs pairs lorsqu’ils apprennent l’ouverture d’une nouvelle investigation pour motif de paiement de pots-de-vin présumé. Pour ce faire, j’utilise le cas des entreprises poursuivies pour atteinte aux dispositions de la loi anti-corruption nord-américaine, le Foreign Corrupt Practices Act (FCPA). Je fais dans une première partie l’état de l’art des modèles utilisés par la littérature pour lier régulation et qualité de l’information comptable. Puis, dans un deuxième article, j’étudie avec mon co-auteur l’évolution de la qualité de l’information comptable des entreprises visées par une enquête FCPA et des entreprises du même secteur (pairs). Nos résultats suggèrent que les pairs améliorent la qualité de leur information comptable quand ils apprennent l’ouverture d’une investigation FCPA dans leur secteur, mettant en lumière un effet dissuasif de la loi à travers le canal du risque d’information. De manière surprenante, les entreprises visées ne semblent pas, quant à elles, améliorer significativement leur information comptable. Dans un troisième article, je me focalise sur les pairs et les effets économiques réels de l’application de la loi FCPA et j’analyse l’impact de l’ouverture d’une enquête sur le niveau d’investissement des pairs ayant une activité internationale. Les résultats montrent que ceux-ci tendent à diminuer le niveau de leurs investissements quand ils apprennent l’ouverture d’une nouvelle investigation dans leur secteur mais cet effet s’atténue quand le procureur utilise des outils alternatifs de résolution pour clore l’investigation. Ces résultats suggèrent qu’au-delà de l’effet dissuasif sur les pairs de l’annonce d’une investigation dans leur secteur, le mode de résolution de l’enquête utilisé par le procureur peut également influencer le comportement des pairs. En conclusion, cette thèse montre que la loi anti-corruption peut avoir un effet dissuasif sur les pairs, qui tendent à améliorer leur comportement pour répondre à un stimulus règlementaire
The impact of regulation on the behavior of firms is a subject of constant debate between more or less need for public intervention in the decision process of firms. In this thesis, I investigate the direct effect on targeted firms and the indirect effect on peer firms of law enforcement using the cases enforced between 1978 and 2015 under Foreign Corrupt Practices Act (FCPA), the U.S. Anti-Bribery law, as a framework. I firstly review the literature on earnings management, and more specifically on accrual-based models, to analyze the efficiency of accrual-based models to capture changes in regulation. In a second paper, I investigate with my co-author the accrual quality of bribe-paying firms and their competitors and find a positive effect of law enforcement on the accrual quality of bribe-paying firms’ competitors, but not the bribe-paying firms. Our results suggest a positive impact of antibribery law enforcement that incentivizes other firms to enhance their accounting information once they acknowledge a bribing behavior of a peer following the information risk channel. In a third paper, I focus on the indirect effect of law enforcement on peer firms and investigate the real economic effects of anti-bribery enforcement on the level of investment of peers. I find that peer firms decrease the level of their investment once they acknowledge the opening of a FCPA investigation in their industry. More surprisingly, I find a weakening in the decrease of investment for the cases acknowledged after December 2004, when the prosecutor used for the first time alternative resolution vehicles to conclude a FCPA case. These results suggest that, beyond the impact of law enforcement itself, the prosecution mode also affects the behavior of peer firms. In sum, this thesis shows that anti-bribery law enforcement can have a deterrent effect that impacts peer firms, who tend to adapt their behavior in response to a regulatory stimulus
APA, Harvard, Vancouver, ISO, and other styles
3

Gayet, Amaury. "Méthode de valorisation comptable temps réel et big data : étude de cas appliquée à l'industrie papetière." Thesis, Paris 10, 2018. http://www.theses.fr/2018PA100001/document.

Full text
Abstract:
Contexte: La société IP Leanware est une start-up en pleine expansion. Créée en 2008, son C.A. a quadruplé en 4 ans et elle a implantée deux filiales (Brésil et Etats-Unis). Depuis, sa croissance est à deux chiffres (2015). Elle optimise la performance d’entreprises industrielles par un logiciel (BrainCube) qui identifie les conditions de sur-performance. La thèse, réalisée en CIFRE au sein du service R&D dirigé par Sylvain Rubat du Mérac, se situe à l’interface du contrôle de gestion, de la gestion de production et des systèmes d’information. Objectif : BrainCube gère des données descriptives massives des flux des processus de ses clients. Son moteur d’analyse identifie les situations de sur-performance et les diffusent en temps réel par des interfaces tactiles. BrainCube couple deux flux : informationnels et physiques. La mission est d'intégrer la variable économique. Une étude de la littérature montre qu’une évaluation simultanée en temps réel des flux physiques, informationnels et financiers, couplée à une amélioration continue des processus de production, n'est pas réalisée. Résultat : Une revue de la littérature étudie les pratiques et les méthodes du contrôle de gestion pour proposer une méthode temps réel adaptée aux spécificités de BrainCube. L'étude de cas, basée sur une recherche-ingénierique, propose une méthodologie de modélisation générique de la variable économique. Des modèles génériques décisionnels paramétrables sont proposés. Ils doivent faciliter l'usage d'une information temps réel à forte granularité. Les apports, limites et perspectives mettent en relief l'intérêt des travaux pour l'entreprise et les sciences de gestion
Context: IP Leanware is a growing start-up. Created in 2008, its consolidated sales has quadrupled in 4 years and established two subsidiaries (Brazil and the United States). Since then, its growth has been two digits (2015). It optimizes the performance of industrial companies with software (BrainCube) that identifies overperformance conditions. The thesis, carried out in CIFRE within the R&D service led by Sylvain Rubat du Mérac, is located at the interface of management control, production management and information systems.Aim: BrainCube manages massive descriptive data of its customers' process flows. Its analysis engine identifies overperformance situations and broadcasts them in real time through tactile interfaces. BrainCube couples two flows: informational and physical. The mission is to integrate the economic variable. A literature study shows that simultaneous real-time evaluation of physical, informational and financial flows coupled with continuous improvement of production processes is not realized.Result: A literature review examines the practices and methods of management control to propose a real-time method adapted to the specificities of BrainCube. The case study, based on an engineering-research, proposes a generic modeling methodology of the economic variable. Configurable generic decision models are proposed. They must facilitate the use of real time information with high granularity. The contributions, limits and perspectives highlight the interest of works for the company and the management sciences
APA, Harvard, Vancouver, ISO, and other styles
4

Perier, Stephane. "Gestion des résultats comptables et introduction en bourse." Grenoble 2, 1998. http://www.theses.fr/1998GRE21056.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Medina, Marquez Alejandro. "L'analyse des données évolutives." Paris 9, 1985. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1985PA090022.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Teller, Pierre. "Une représentation formelle des normes comptables internationales." Nice, 2007. http://www.theses.fr/2007NICE4061.

Full text
Abstract:
L’objet de cette thèse est de décrire le modèle de représentation de l’information financière que nous avons élaboré afin de permettre de traiter celle-ci de manière plus efficace que ce qui se fait actuellement, ce domaine particulier de la représentation des connaissances étant étrangement en retard de ce point de vue. Notre démarche s'inscrit dans un contexte de profond bouleversement des pratiques comptables dans le monde entier, phénomène encore accru à la suite des récents scandales financiers qui, depuis l'affaire Enron, ont mis en lumière le retard des moyens utilisés par rapport à la réalité économique des entreprises. L'adaptation de l'information financière aux techniques modernes de communication et d'échange devient donc un enjeu d’autant plus important que l’environnement réglementaire, partout dans le monde, requiert un reporting toujours plus volumineux et des délais toujours plus courts. Nous proposons avec notre travail une représentation syntaxique et sémantique des nouvelles normes comptables internationales inspirée de techniques assez répandues pour ce genre de tâches, et qui peut être utilisée pour pré-traiter l’information et faciliter son analyse. La représentation syntaxique utilise un formalisme inspiré des logiques de description, qui permet d'introduire des opérateurs logiques non usuels qui sont d'une grande utilité pour modéliser certains aspects caractéristiques des normes comptables. La sémantique est représentée à l'aide d'outils de création et de gestion d'ontologies, qui permettent d'effectuer automatiquement des raisonnement de type classification ou instanciation, tout en étant un bon moyen de véhiculer le sens que nous donnons aux différents concepts utilisés par notre modèle. Nous montrons des cas pratiques d'utilisation d'un tel modèle, afin de mettre en lumière les avantages que représente une telle formalisation de l'information, par exemple pour pouvoir représenter des situations particulières et pouvoir déterminer automatiquement si elles sont conformes aux normes comptables. Ces cas pratiques sont en partie inspirés par des tâches habituellement réalisées dans un audit financier, pour montrer le bénéfice que l'on pourrait tirer de l'utilisation d'un modèle adéquat de l'information, et en partie issus de travaux réalisés en sciences de gestion, pour montrer en quoi un modèle comme le notre représente une solution à des problèmes rencontrés dans ce domaine pour appliquer des méthodes de surveillance sur une grande échelle
The subject of this thesis was to build a formal model designed to enhance the representation of financial information. This model allows a more efficient treatment of this kind of information, and in this particular field of data management, there is still a lot of work to be done to reach the level of formalism obtained in other domains. The accounting procedures are facing wide mutations, especially since Enron's bankruptcy. The financial scandals of the early 2000's highlighted the weaknesses of surveillance procedures, which is the reason why regulators all over the world realized that financial information has to change, to match with the economic reality. Two global trends emerge from the modifications of the accounting legal background : the differences between national standards are reduced, and the requirements on financial reporting are more and more important, from a quantitative and a qualitative point of view. Moreover, as the amount of informations grows, the time allowed for its treatment is shortened. The use of the most efficient techniques of data manipulation is therefore a major issue. We are offering a model for financial information, which is composed of a syntactic model and a semantic model, based on the new international accounting standards. The syntactic representation use formalism inspired by description logics. This formalism allows the use of non monotonic logical operators, and these operators were very useful to represent some of the most typical features of accounting standards. The semantic of accounting standards is represented using an ontology, because this tool is very convenient for our purpose, and it allows automatic knowledge-oriented reasoning, like classification within a taxonomy. This ontology is used to fix the meaning of the concepts used in our model. The possibilities of our model are illustrated by practical case studies. These cases show that the availability of this model may greatly improve some tasks related to financial data manipulation
APA, Harvard, Vancouver, ISO, and other styles
7

El, Beyrouthy Marc. "Management vert : stratégies, nouvelles normes comptables et éthique marketing." Aix-Marseille 3, 2008. http://www.theses.fr/2008AIX32081.

Full text
Abstract:
Cette thèse traite le management vert qui concerne autant les entreprises agro-alimentaires et de santé que les entreprises dont le fonctionnement est en liaison avec l’environnement. Dans ce domaine qui acquière une importance considérable aujourd'hui avec tous les problèmes d'alimentation, de respect de la nature, et de respect de l'homme, les problèmes sont innombrables et la planète entière se trouve confrontée à des défis à nuls autres pareils depuis le début des grandes civilisations. De la faim, aux conflits, à la pollution, et à l'épuisement des ressources naturelles, les problèmes apparaissent comme quasiment insurmontables. Dans ce travail nous avons cherché à savoir ce qu'une approche managériale peut apporter et à examiné trois grands domaines du management. L'approche générale concernant les lois, les directives et dispositions mises en œuvre aux niveaux internationaux et nationaux. L'approche financière sur la façon de consigner les engagement des entreprises, qu'elles soient agro-alimentaires ou tout simplement liées à des problématiques environnementales, cela au niveau de la comptabilité et de l'évaluation qui contribuent le plus à la connaissance des systèmes d'informations financiers des entreprises et L'approche marketing qui demande ici, plus qu'ailleurs probablement, d'aborder la question des pressions des medias et des organisations publicitaires, pour ne pas en nommer d'autres, qui y trouvent des terrains privilégiés pour susciter des réactions irréfléchies et purement épidermiques où le commun des consommateurs ou même d'autres entreprises se trouvent conduits à adopter des mesures souvent coûteuses quand elles ne sont pas néfastes
This thesis deals with the Green Management that concerns food and health companies as much as the companies that operates in conjunction with the environment. In this field, which acquires today great importance with all the problems of food, respect for nature and respect for the human; the problems are endless and the entire planet is facing challenges like no other since the beginning of the great civilizations. Starting with hunger, conflict, pollution, and depletion of natural resources, the problems appear almost insurmountable. We tried throughout this work to know what a managerial approach can provide and examined three major fields of management. The general approach concerning the laws, guidelines and provisions implemented at international and national levels. The financial approach on how to charge the commitment of the companies whether it is related to the food or simply to environmental issues, this is at the level of accounting and evaluation that mostly contribute to the knowledge of financial information systems of the companies and the marketing approach that requests here, more than elsewhere probably, to approach the question of the media and advertising organizations pressures, in order not to appoint others, who find some privileged lands to create rash and purely epidermal reactions where the common consumers or even other companies are forced to adopt often expensive measures when they are not harmful
APA, Harvard, Vancouver, ISO, and other styles
8

Bessieux, Corinne. "Les déterminants culturels des choix comptables : le cas des éléments incorporels." Paris 9, 2002. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2002PA090047.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Chevallier, André. "Système d'information comptable et multivision de l'entreprise : contribution à une pédagogie combinatoire des images comptables." Nice, 1989. http://www.theses.fr/1989NICE0017.

Full text
Abstract:
Dans la première partie, nous étudions les problèmes liés à la conception d'un modèle d'analyse financière automatisé. L'image a concevoir ayant pour ambition l'universalité, notre application s'est naturellement orientée vers un modèle reconnu ou imposé, le plan comptable européen, l'outil de développement est un progiciel intégré, le cadre de réalisation, une importante PME régionale. Conscient des limites d'une image universelle mais unique, la seconde partie, plus théorique s'attache à montrer l'intérêt que peut avoir une entreprise a disposer d'un système d'information qui autorise aisément une représentation multiforme de sa situation passée, présente ou à venir, cette multivision étant décrite et mise en oeuvre par les utilisateurs en toute indépendance. La troisième partie s'intéresse à certains phénomènes qui traversent l'entreprise, mais semblent à priori dépouillés d'usage, leur description puis leur étude posent un problème de communication, nous envisageons alors différentes possibilités liées à la représentation des connaissances et nous proposons une solution. Dans la conclusion nous examinons l'éventualité d'une représentation multiforme de l'entreprise qui puisse résulter de l'application des règles de l'analyse combinatoire.
APA, Harvard, Vancouver, ISO, and other styles
10

Mejri, Tarek. "Le rôle des manipulations comptables dans la valorisation de la firme." Thesis, Paris 13, 2013. http://www.theses.fr/2013PA131026.

Full text
Abstract:
ALes indicateurs comptables publiés par les firmes demeurent une source d’information privilégiée pour le marché financier. Cependant, l’espace de liberté accordé par les règles comptables permet aux managers d’exercer leur jugement afin de publier des états financiers en fonction d’objectifs discrétionnaires. Or, même si l’on considère que les investisseurs sont rationnels dans leurs prises de décisions économiques, il n’est pas évident de distinguer les manipulations comptables opportunistes des manipulations comptables qui représentent un mécanisme par lequel les managers révèlent leurs informations privées en ce qui concerne les perspectives économiques de la firme. Ce constat est à la base de notre question de recherche: étant donné l’importance des pratiques de manipulations des chiffres comptables, quel serait le rôle de ces manipulations dans la valorisation de l’entreprise ? Nous examinerons dans le contexte américain le rôle de la composante discrétionnaire de résultat (les accruals discrétionnaires mesurés par le modèle Dechow, Richardson et Tuna (2003)) sur les rentabilités boursières en se basant sur la méthodologie des études d’association entre les composantes des résultats comptables (le cash-flow d’exploitation, les accruals totaux, les accruals discrétionnaires, les accruals non discrétionnaires et les résultats discrétionnaires) et le rendement boursier. En outre, nous examinerons la nature de la gestion de résultat. Notre échantillon est composé de 480 firmes sur la période [2000-2011]. Les résultats montrent que les accruals discrétionnaires sont valorisés par le marché financier et que cette valorisation est expliquée par des motivations informatives des dirigeants ; la gestion de résultat identifiée dans notre échantillon est informative
AThe accounting indicators remain a privileged information source for the financial market. However, accounting rules give opportunities to managers to exercise judgment in financial reporting. Despite the rationality of investors, it is not easy to distinguish between the different incentives of accounts manipulations. Managers can use their knowledge about the business to improve the informativeness of financial statement. Manager can have also incentives to mislead their financial statement users by exercising discretions in financial reporting. This report is on the basis of our research question: given the importance of the accounting manipulations practices, what is their role on firm valuation? We will examine in the American context the role of the discretionary accruals measured by Dechow, Richardson and Tuna (2003) on the stock-returns building on the methodology of association studies between the components of the accounting results (The cash-flow, the total accruals, the discretionary accruals, the not discretionary accruals and the discretionary results) and the stock-returns. In addition, we will examine the nature of the earning management. Our sample consists of 480 firms over the period [2000-2011]. The results show that discretionary accruals are valued by the financial market and this valuation is explained by managers’ informative motivations
APA, Harvard, Vancouver, ISO, and other styles
11

Yang, Xi. "Essais sur la stabilité du secteur bancaire : analyses sur données comptables des banques américaines." Thesis, Paris 10, 2015. http://www.theses.fr/2015PA100169.

Full text
Abstract:
La crise financière globale de 2007-2009 a révélé la fragilité des banques modernes ainsi que les carences de la réglementation. A la suite de la crise, le secteur bancaire a connu des réformes réglementaires importantes : renforcement de la régulation micro-prudentielle, mise en place de dispositifs ayant des objectifs macroprudentiels et diverses initiatives de séparation des activités. Dans ce contexte, cette thèse, en s’appuyant sur les données américaines, essaie dans un premier temps d’expliquer la vulnérabilité des banques par leurs caractéristiques financières et leur structure organisationnelle. Ensuite, la thèse propose une analyse de l’efficacité de certains nouveaux outils dans le cadre des réformes. Nous trouvons les résultats suivants : 1) Le risque de faillite est plus élevé chez les banques qui adoptent des stratégies agressives pendant la période d’euphorie économique et qui se financent par des fonds instables. Une maison-mère saine (bien capitalisée et rentable) est une source de force des filiales bancaires. Cela vient étayer l’introduction du coussin de capital contracyclique et du ratio de liquidité dans Bâle III. 2) La diversification des activités contribue à la baisse du risque bancaire alors que les engagements croissants en activités non-traditionnelles volatiles semble rendre les banques plus vulnérables. Ceci conforte la nécessité d'une réforme structurelle pour certaines banques universelles. 3) Les ratios de levier prévoient mieux la probabilité de faillite des grandes banques que le ratio pondéré par les risques, tandis que les deux types de ratios sont aussi efficaces pour prévoir la faillite des petites banques. Ce résultat souligne l’importance du renforcement de la réglementation des banques systémiques et implique sa mise en œuvre
The 2007-2009 global financial crisis reveals the fragility of modern banking sector and the flaws in bank regulation. In the wake of the crisis, an important number of reforms are carried out: enhancement of micro-prudential regulation, introduction of macro-prudential instruments and separation of activities. In this context, this thesis, using detailed information on the U.S. banking sector, tries to explain bank vulnerability by their financial characteristics and organizational structure. Then the thesis analyzes the efficiency of some new regulatory instruments. Our findings are the following: 1) Banks adopting an aggressive business model in economic boom and banks funded massively with instable liabilities are more likely to fail. A healthy (well-capitalized and profitable) bank holding company is a source of strength for its bank subsidiaries. These findings support the introduction of the countercyclical capital buffer and of the requirements on liquidity in the Basel III framework. 2) A high degree of diversification across different banking activities is associated with important risk reduction benefits while the expansion in non-traditional activities seems to make banks more vulnerable. This indicates the necessity of structural reform for certain universal banks. 3) The leverage ratios are more efficient in predicting failures of large banks than the risk-weighted capital ratio whereas the two types of capital ratios predict the failures of small banks as well as each other. These findings go in line with the reinforcement of regulation on systemically important banks
APA, Harvard, Vancouver, ISO, and other styles
12

Akhoune, Farhana. "Le comptable public à l'épreuve de la nouvelle gestion publique." Paris 1, 2007. http://www.theses.fr/2007PA010307.

Full text
Abstract:
Dans le système financier public, le comptable public est appréhendé qu'en tant que contrôleur. Une telle approche est restrictive car elle revient à le cantonner à une seule phase de l'exécution budgétaire alors qu'il intervient plus largement dans le processus d'exécution. De même, l'effectivité d'une responsabilité unique - personnelle et pécuniaire - consacrée par le législateur permet au comptable d'exercer en toute indépendance, hors des pressions politiques ou administratives, la plénitude de sa mission. En ce sens, le comptable public bénéficie d'un statut particulier. Il ne s'agit donc pas d'une simple attribution fonctionnelle qui ferait du comptable un simple exécutant car cette dernière approche élémentaire et syncrétique ne pourrait rendre compte, à elle seule, de la place importante de cet acteur au sein de notre système financier public. C'est bien pour cette raison que le comptable public doit, à notre sens, faire l'objet d'une réflexion systémique. Il n'est pas seulement le garant de la régularité financière publique mais s'inscrit plus largement dans une logique de régulation. Dès lors, l'étude du comptable public en tant qu'acteur du système financier public peut être menée selon deux perspectives : l'une traditionnelle, fondée sur une logique séculaire de régularité financière et l'autre, issue de la nouvelle conception gestionnaire des fonds publics qui place le comptable public au coeur de la régulation du système financier.
APA, Harvard, Vancouver, ISO, and other styles
13

Zehri, Fatma. "La place de la qualité de l'audit externe dans la gestion des résultats comptables : cas des entreprises tunisiennes." Montpellier 2, 2007. http://www.theses.fr/2007MON20001.

Full text
Abstract:
La gestion des résultats comptables a pris, depuis des années, un poids important dans la recherche en sciences de gestion, à l’égard de la profession comptable et à l’échelle des organismes de contrôle financier. Le débat sur les enjeux liés à ce comportement managérial est toujours d’actualité. Les travaux sur ce sujet sont nombreux, ils traitent, en général, des déterminants de la stratégie comptable avec une diversité des approches et de méthodologie ainsi qu’une divergence des résultats obtenus. Cette thèse contribue à des tels efforts en analysant le cas de la Tunisie et en mettant en avant la place de la qualité de l’audit externe dans l’explication de l’ampleur de la gestion des résultats. Les effets simultanés de certains mécanismes de gouvernement d’entreprises ainsi que des variables classiques de la théorie positive ont été inclus, à titre de contrôle, pour une meilleure explication et compréhension de la fiabilité des états financiers
Earnings management took, for a long time, an important weight in the research in fields of sciences of management, within the accounting profession and the control mechanisms of securities stock exchange. Debate on the exact effects of the financial divulgation process and the management behaviour are always of current events. Works on this subject are numerous; they treat, generally, determinants of accounting strategy, with multiple approaches and leading to different results. This thesis contributes to such efforts by analyzing the case of Tunisia and by insisting on the position of audit quality in explaining the importance of earnings management. Simultaneous effects of certain corporate governance mechanisms and agency costs are included, as control variables, for better explanation and comprehension of reliability of financial statements
APA, Harvard, Vancouver, ISO, and other styles
14

Meloche, Hélène. "L'utilité des données comptables dans les décisions de sélection et d'évaluation de performance de portefeuille." Mémoire, Université de Sherbrooke, 1990. http://hdl.handle.net/11143/9049.

Full text
Abstract:
Dans la plupart des décisions à caractère économique, les données boursières jouent un rôle prépondérant. Pourtant, les données comptables dont le bénéfice comptable figurant aux états financiers, servent à fournir de l'information utile pour la prise de décision à caractère économique. Le débat sur l'utilité des données comptables publiées dans les états financiers continue à avoir lieu. Une des questions le plus souvent posée porte plus spécifiquement sur l'utilité de ces données dans les décisions de sélection et d'évaluation de performance de portefeuille. Les résultats de cette recherche nous ont permis de conclure que les décisions de sélection et d'évaluation de performance de portefeuille fondées sur des données comptables sont cohérentes avec les mêmes décisions basées sur des données boursières.
APA, Harvard, Vancouver, ISO, and other styles
15

Le, Béchec Antony. "Gestion, analyse et intégration des données transcriptomiques." Rennes 1, 2007. http://www.theses.fr/2007REN1S051.

Full text
Abstract:
Dans le cadre de l'étude des mécanismes moléculaires impliqués dans les processus biologiques liés aux pathologies, la transcriptomique permet d’étudier l’expression de plusieurs milliers de gènes en une seule expérience. Les standards internationaux permettent actuellement de gérer la grande quantité de données générées par cette technologie et de nombreux algorithmes permettent le traitement et l’analyse des données d’expression. Le grand défi d’aujourd’hui réside dans l’interprétation des données, notamment par l’intégration de connaissances biologiques supplémentaires permettant la création d’un contexte d’étude aidant à la compréhension des mécanismes biologiques. Afin de répondre aux besoins liés à l’exploitation de ces données transcriptomiques, un environnement complet et évolutif a été développé, M@IA (Micro@rray Integrated Application), permettant de gérer les expériences de puces à ADN mais également traiter et analyser les données d’expression. Une méthode de biologie intégrative combinant de multiples sources de données a été conçue pour exploiter des listes de gènes différentiellement exprimés par l’interprétation de réseaux de gènes représentés sous forme de graphes d’interaction. Egalement, une méthode de méta-analyse de données d’expression de gènes issues de la bibliographie a permis de sélectionner et combiner des études similaires associées à la progression tumorale du foie. En conclusion, ces travaux s’intègrent totalement à l’actuel développement de la biologie intégrative, indispensable à la résolution des mécanismes physiopathologiques
Aiming at a better understanding of diseases, transcriptomic approaches allow the analysis of several thousands of genes in a single experiment. To date, international standard initiatives have allowed the utilization of large quantity of data generated using transcriptomic approaches by the whole scientific community, and a large number of algorithms are available to process and analyze the data sets. However, the major challenge remaining to tackle is now to provide biological interpretations to these large sets of data. In particular, their integration with additional biological knowledge would certainly lead to an improved understanding of complex biological mechanisms. In my thesis work, I have developed a novel and evolutive environment for the management and analysis of transcriptomic data. Micro@rray Integrated Application (M@IA) allows for management, processing and analysis of large scale expression data sets. In addition, I elaborated a computational method to combine multiple data sources and represent differentially expressed gene networks as interaction graphs. Finally, I used a meta-analysis of gene expression data extracted from the literature to select and combine similar studies associated with the progression of liver cancer. In conclusion, this work provides a novel tool and original analytical methodologies thus contributing to the emerging field of integrative biology and indispensable for a better understanding of complex pathophysiological processes
APA, Harvard, Vancouver, ISO, and other styles
16

Maniu, Silviu. "Gestion des données dans les réseaux sociaux." Thesis, Paris, ENST, 2012. http://www.theses.fr/2012ENST0053/document.

Full text
Abstract:
Nous abordons dans cette thèse quelques-unes des questions soulevées par I'émergence d'applications sociales sur le Web, en se concentrant sur deux axes importants: l'efficacité de recherche sociale dans les applications Web et l'inférence de liens sociaux signés à partir des interactions entre les utilisateurs dans les applications Web collaboratives. Nous commençons par examiner la recherche sociale dans les applications de "tag- ging". Ce problème nécessite une adaptation importante des techniques existantes, qui n'utilisent pas des informations sociaux. Dans un contexte ou le réseau est importante, on peut (et on devrait) d'exploiter les liens sociaux, ce qui peut indiquer la façon dont les utilisateurs se rapportent au demandeur et combien de poids leurs actions de "tagging" devrait avoir dans le résultat. Nous proposons un algorithme qui a le potentiel d'évoluer avec la taille des applications actuelles, et on le valide par des expériences approfondies. Comme les applications de recherche sociale peut être considérée comme faisant partie d'une catégorie plus large des applications sensibles au contexte, nous étudions le problème de répondre aux requêtes à partir des vues, en se concentrant sur deux sous-problèmes importants. En premier, la manipulation des éventuelles différences de contexte entre les différents points de vue et une requête d'entrée conduit à des résultats avec des score incertains, valables pour le nouveau contexte. En conséquence, les algorithmes top-k actuels ne sont plus directement applicables et doivent être adaptés aux telle incertitudes dans les scores des objets. Deuxièmement, les techniques adaptées de sélection de vue sont nécessaires, qui peuvent s’appuyer sur les descriptions des requêtes et des statistiques sur leurs résultats. Enfin, nous présentons une approche pour déduire un réseau signé (un "réseau de confiance") à partir de contenu généré dans Wikipedia. Nous étudions les mécanismes pour deduire des relations entre les contributeurs Wikipédia - sous forme de liens dirigés signés - en fonction de leurs interactions. Notre étude met en lumière un réseau qui est capturée par l’interaction sociale. Nous examinons si ce réseau entre contributeurs Wikipedia représente en effet une configuration plausible des liens signes, par l’étude de ses propriétés globaux et locaux du reseau, et en évaluant son impact sur le classement des articles de Wikipedia
We address in this thesis some of the issues raised by the emergence of social applications on the Web, focusing on two important directions: efficient social search inonline applications and the inference of signed social links from interactions between users in collaborative Web applications. We start by considering social search in tagging (or bookmarking) applications. This problem requires a significant departure from existing, socially agnostic techniques. In a network-aware context, one can (and should) exploit the social links, which can indicate how users relate to the seeker and how much weight their tagging actions should have in the result build-up. We propose an algorithm that has the potential to scale to current applications, and validate it via extensive experiments. As social search applications can be thought of as part of a wider class of context-aware applications, we consider context-aware query optimization based on views, focusing on two important sub-problems. First, handling the possible differences in context between the various views and an input query leads to view results having uncertain scores, i.e., score ranges valid for the new context. As a consequence, current top-k algorithms are no longer directly applicable and need to be adapted to handle such uncertainty in object scores. Second, adapted view selection techniques are needed, which can leverage both the descriptions of queries and statistics over their results. Finally, we present an approach for inferring a signed network (a "web of trust")from user-generated content in Wikipedia. We investigate mechanisms by which relationships between Wikipedia contributors - in the form of signed directed links - can be inferred based their interactions. Our study sheds light into principles underlying a signed network that is captured by social interaction. We investigate whether this network over Wikipedia contributors represents indeed a plausible configuration of link signs, by studying its global and local network properties, and at an application level, by assessing its impact in the classification of Wikipedia articles.javascript:nouvelleZone('abstract');_ajtAbstract('abstract')
APA, Harvard, Vancouver, ISO, and other styles
17

Benchkron, Said Soumia. "Bases de données et logiciels intégrés." Paris 9, 1985. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1985PA090025.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Castelltort, Arnaud. "Historisation de données dans les bases de données NoSQLorientées graphes." Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20076.

Full text
Abstract:
Cette thèse porte sur l'historisation des données dans les bases de données graphes. La problématique des données en graphes existe depuis longtemps mais leur exploitation par des moteurs de système de gestion de bases de données, principalement dans les moteurs NoSQL, est récente. Cette apparition est notamment liée à l'émergence des thématiques Big Data dont les propriétés intrinsèques, souvent décrites à l'aide des propriétés 3V (variété, volume, vélocité), ont révélé les limites des bases de données relationnelles classiques. L'historisation quant à elle, est un enjeu majeur des SI qui a été longtemps abordé seulement pour des raisons techniques de sauvegarde, de maintenance ou plus récemment pour des raisons décisionnelles (suites applicatives de Business Intelligence). Cependant, cet aspect s'avère maintenant prendre une place prédominante dans les applications de gestion. Dans ce contexte, les bases de données graphes qui sont de plus en plus utilisées n'ont que très peu bénéficié des apports récents de l'historisation. La première contribution consiste à étudier le nouveau poids des données historisées dans les SI de gestion. Cette analyse repose sur l'hypothèse selon laquelle les applications de gestion intègrent de plus en plus en leur sein les enjeux d'historisation. Nous discutons ce positionnement au regard de l'analyse de l'évolution des SI par rapport à cette problématique. La deuxième contribution vise, au-delà de l'étude de l'évolution des sytèmes d'information, à proposer un modèle innovant de gestion de l'historisation dans les bases de données NoSQL en graphes. Cette proposition consiste d'une part en l'élaboration d'un système unique et générique de représentation de l'historique au sein des BD NoSQL en graphes et d'autre part à proposer des modes d'interrogation (requêtes). Nous montrons qu'il est possible d'utiliser ce système aussi bien pour des requêtes simples (c'est-à-dire correspondant à ce que l'on attend en première intention d'un système d'historisation~: récupérer les précédentes versions d'une donnée) mais aussi de requêtes plus complexes qui permettent de tirer parti aussi bien de la notion d'historisation que des possibilités offertes par les bases de données graphes (par exemple, la reconnaissance de motifs dans le temps)
This thesis deals with data historization in the context of graphs. Graph data have been dealt with for many years but their exploitation in information systems, especially in NoSQL engines, is recent. The emerging Big Data and 3V contexts (Variety, Volume, Velocity) have revealed the limits of classical relational databases. Historization, on its side, has been considered for a long time as only linked with technical and backups issues, and more recently with decisional reasons (Business Intelligence). However, historization is now taking more and more importance in management applications.In this framework, graph databases that are often used have received little attention regarding historization. Our first contribution consists in studying the impact of historized data in management information systems. This analysis relies on the hypothesis that historization is taking more and more importance. Our second contribution aims at proposing an original model for managing historization in NoSQL graph databases.This proposition consists on the one hand in elaborating a unique and generic system for representing the history and on the other hand in proposing query features.We show that the system can support both simple and complex queries.Our contributions have been implemented and tested over synthetic and real databases
APA, Harvard, Vancouver, ISO, and other styles
19

Padula, Antonio Domingos. "Une méthodologie de diagnostic organisationnel global pour le conseil de direction en PME-PMI." Grenoble 2, 1991. http://www.theses.fr/1991GRE21008.

Full text
Abstract:
Les pme-pmi sont parfois confrontees a des problemes de management dont la solution echappe a leur possibilites materielles et humaines. L'une des attentes du dirigeant a l'egard deson conseil est qu'il l'aide a resoudre ces problemes. De par sa place privilegiee, l'expert-comptable est un conseil tout naturel des pme-pmi. Mais les cabinets ne sont pas actuellement prepares pour satisfaire ces attentes des dirigeants. Ils ressentent le besoin de methodologies et d'outils pour faciliter leur propre evolution professionnelle vers un conseil plus global et plus managerial. En partant de ce constat, nous avons formule une problematique concernant les deux points suivants : l'activite de conseil en gestion aux pme-pmi et le processus de developpement de ces organisations. A cette problematique, nous avons fourni une reponse au terme d'une recherche-action pour la conceptualisation, la formalisation et la validation d'une methodologie de diagnostic organisationnel global. En systematisant et enrichissant les differentes connaissances, qui etaient parcellisees et dispersees, nous en avons comble certaines lacunes dans le domaine du conseil en pme-pmi et du processus de transition organisationnelle
Small and mid-sized firms are often confronted with problems of management beyond their human and material resources. One of the major expectations of executives is help from consultants to solve such problems. Accounting specialists are naturally called on by such firms. However, nowadays they aren't ready to satisfy executives's expectations. They feel the need for specific approachs and tools to ease their professional evolution towards more general managerial solutions for such firms. Considering this situation, we've formulated a research problem that takes into account the following points : the specificity of consulting activity to small and mid-sized firms and the development process of such organizations. Then we proposed a solution resulting from action research into the issue so as to conceptualize, formalize and validate a method of overall business diagnosis. By enriching first then making systematic hither-to-fore dispersed and fragmentary knowledge, we have filled in the gaps on knowledge as far as consulting activities towards small and mid-sized firms, as well as contributing to e better understanding of their transitional problems
APA, Harvard, Vancouver, ISO, and other styles
20

Maurice, Jonathan. "Fiabilité des provisions comptables environnementales : apports d'une lecture institutionnelle." Phd thesis, Université Montpellier I, 2012. http://tel.archives-ouvertes.fr/tel-00768565.

Full text
Abstract:
Dans cette thèse, la fiabilité des provisions comptables environnementales est évaluée par une combinaison de méthodes de recherche quantitatives et qualitatives dans une perspective de triangulation des résultats. Tout d'abord, l'étude de la divulgation de ces provisions par les groupes cotés français révèle son insuffisance et sa dégradation sur la période 2005-2010. Ensuite, l'utilisation de tests d'adéquation à la loi de Benford pour les montants comptabilisés au bilan et de régressions multiples pour les impacts au résultat ne permettent pas de remettre en cause la fiabilité des provisions environnementales divulguées par le même échantillon de groupes cotés français. Ces résultats contrastent avec ceux des recherches antérieures validant l'utilisation discrétionnaire des provisions environnementales pour lisser le résultat et limiter l'émergence de coûts politiques. L'étude de cas multiple conduite au niveau des acteurs de ces mêmes groupes explique cette fiabilité des montants par celle de leur processus de détermination et les nombreuses pressions institutionnelles qui l'encadrent. Les résultats de cette thèse indiquent donc que certains choix comptables pouvant affecter le résultat de façon discrétionnaire sont davantage expliqués par les pressions institutionnelles subies que par la volonté des dirigeants d'améliorer leur situation personnelle.
APA, Harvard, Vancouver, ISO, and other styles
21

Paradis, Jocelin. "Modèle théorique de détermination du taux de capitalisation ajusté au risque basé sur des données comptables." Mémoire, Université de Sherbrooke, 1989. http://hdl.handle.net/11143/8233.

Full text
Abstract:
Voici rassemblées les diverses parties de ma recherche sur la détermination d'un taux de capitalisation ajusté au risque. C'est non sans obligeance que je vous incite à lire ce mémoire comme s'il faisait partie intégrale de la littérature concernant ce sujet. L'étendue de ce champs de recherche étant particulièrement vaste, aucune étude ne saurait être exhaustive et porter sur l'ensemble de la question. C'est évidemment pour cette raison que ce mémoire ne traite que d'une partie de ce thème. L'objectif implicite de cette recherche est sans contredit de tenter de concevoir un modèle théorique permettant d'estimer l'importance du risque supporté par les propriétaires d'entreprises dont les titres de participation ne sont pas publiquement transigés. Bien que ce sujet ne soit pas dénué d'intérêt, on constate qu'un nombre restreint de recherches ont été effectuées sur cette question précise. C'est sans doute la grande difficulté que représente l'obtention des données nécessaires à toute recherche impliquant des entreprises privées qui explique la faible popularité de ce thème. Une telle limitation circonscrit presque inévitablement le traitement d'un sujet à un point de vue théorique. Malgré ce fait, c'est dans une perspective élargie et sans perdre de vue les écarts souvent prononcés qui existent entre les deux démarches que j'ai entrepris cette étude. Je considère qu'une telle optique (si elle est continuellement maintenue tout au long d'une recherche) peut, dans une certaine mesure, servir de panacée. J'aimerais finalement ajouter que cette étude s'inscrit en partie dans la lignée de celles qui prétendent vouloir bâtir sur des fondations existantes une meilleure adéquation entre la modélisation et la réalité.
APA, Harvard, Vancouver, ISO, and other styles
22

Janin, Rémi. "Gestion des chiffres comptables, contenu informationnel du résultat et mesure de la création de valeur." Grenoble 2, 2000. http://www.theses.fr/2000GRE21033.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Tos, Uras. "Réplication de données dans les systèmes de gestion de données à grande échelle." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30066/document.

Full text
Abstract:
Ces dernières années, la popularité croissante des applications, e.g. les expériences scientifiques, Internet des objets et les réseaux sociaux, a conduit à la génération de gros volumes de données. La gestion de telles données qui de plus, sont hétérogènes et distribuées à grande échelle, constitue un défi important. Dans les systèmes traditionnels tels que les systèmes distribués et parallèles, les systèmes pair-à-pair et les systèmes de grille, répondre à des objectifs tels que l'obtention de performances acceptables tout en garantissant une bonne disponibilité de données constituent des objectifs majeurs pour l'utilisateur, en particulier lorsque ces données sont réparties à travers le monde. Dans ce contexte, la réplication de données, une technique très connue, permet notamment: (i) d'augmenter la disponibilité de données, (ii) de réduire les coûts d'accès aux données et (iii) d'assurer une meilleure tolérance aux pannes. Néanmoins, répliquer les données sur tous les nœuds est une solution non réaliste vu qu'elle génère une consommation importante de la bande passante en plus de l'espace limité de stockage. Définir des stratégies de réplication constitue la solution à apporter à ces problématiques. Les stratégies de réplication de données qui ont été proposées pour les systèmes traditionnels cités précédemment ont pour objectif l'amélioration des performances pour l'utilisateur. Elles sont difficiles à adapter dans les systèmes de cloud. En effet, le fournisseur de cloud a pour but de générer un profit en plus de répondre aux exigences des locataires. Satisfaire les attentes de ces locataire en matière de performances sans sacrifier le profit du fournisseur d'un coté et la gestion élastiques des ressources avec une tarification suivant le modèle 'pay-as-you-go' d'un autre coté, constituent des principes fondamentaux dans les systèmes cloud. Dans cette thèse, nous proposons une stratégie de réplication de données pour satisfaire les exigences du locataire, e.g. les performances, tout en garantissant le profit économique du fournisseur. En se basant sur un modèle de coût, nous estimons le temps de réponse nécessaire pour l'exécution d'une requête distribuée. La réplication de données n'est envisagée que si le temps de réponse estimé dépasse un seuil fixé auparavant dans le contrat établi entre le fournisseur et le client. Ensuite, cette réplication doit être profitable du point de vue économique pour le fournisseur. Dans ce contexte, nous proposons un modèle économique prenant en compte aussi bien les dépenses et les revenus du fournisseur lors de l'exécution de cette requête. Nous proposons une heuristique pour le placement des répliques afin de réduire les temps d'accès à ces nouvelles répliques. De plus, un ajustement du nombre de répliques est adopté afin de permettre une gestion élastique des ressources. Nous validons la stratégie proposée par une évaluation basée sur une simulation. Nous comparons les performances de notre stratégie à celles d'une autre stratégie de réplication proposée dans les clouds. L'analyse des résultats obtenus a montré que les deux stratégies comparées répondent à l'objectif de performances pour le locataire. Néanmoins, une réplique de données n'est crée, avec notre stratégie, que si cette réplication est profitable pour le fournisseur
In recent years, growing popularity of large-scale applications, e.g. scientific experiments, Internet of things and social networking, led to generation of large volumes of data. The management of this data presents a significant challenge as the data is heterogeneous and distributed on a large scale. In traditional systems including distributed and parallel systems, peer-to-peer systems and grid systems, meeting objectives such as achieving acceptable performance while ensuring good availability of data are major challenges for service providers, especially when the data is distributed around the world. In this context, data replication, as a well-known technique, allows: (i) increased data availability, (ii) reduced data access costs, and (iii) improved fault-tolerance. However, replicating data on all nodes is an unrealistic solution as it generates significant bandwidth consumption in addition to exhausting limited storage space. Defining good replication strategies is a solution to these problems. The data replication strategies that have been proposed for the traditional systems mentioned above are intended to improve performance for the user. They are difficult to adapt to cloud systems. Indeed, cloud providers aim to generate a profit in addition to meeting tenant requirements. Meeting the performance expectations of the tenants without sacrificing the provider's profit, as well as managing resource elasticities with a pay-as-you-go pricing model, are the fundamentals of cloud systems. In this thesis, we propose a data replication strategy that satisfies the requirements of the tenant, such as performance, while guaranteeing the economic profit of the provider. Based on a cost model, we estimate the response time required to execute a distributed database query. Data replication is only considered if, for any query, the estimated response time exceeds a threshold previously set in the contract between the provider and the tenant. Then, the planned replication must also be economically beneficial to the provider. In this context, we propose an economic model that takes into account both the expenditures and the revenues of the provider during the execution of any particular database query. Once the data replication is decided to go through, a heuristic placement approach is used to find the placement for new replicas in order to reduce the access time. In addition, a dynamic adjustment of the number of replicas is adopted to allow elastic management of resources. Proposed strategy is validated in an experimental evaluation carried out in a simulation environment. Compared with another data replication strategy proposed in the cloud systems, the analysis of the obtained results shows that the two compared strategies respond to the performance objective for the tenant. Nevertheless, a replica of data is created, with our strategy, only if this replication is profitable for the provider
APA, Harvard, Vancouver, ISO, and other styles
24

Chardonnens, Anne. "La gestion des données d'autorité archivistiques dans le cadre du Web de données." Doctoral thesis, Universite Libre de Bruxelles, 2020. https://dipot.ulb.ac.be/dspace/bitstream/2013/315804/5/Contrat.pdf.

Full text
Abstract:
Dans un contexte archivistique en transition, marqué par l'évolution des normes internationales de description archivistique et le passage vers une logique de graphes d'entités, cette thèse se concentre plus spécifiquement sur la gestion des données d'autorité relatives à des personnes physiques. Elle vise à explorer comment le secteur des archives peut bénéficier du développement du Web de données pour favoriser une gestion soutenable de ses données d'autorité :de leur création à leur mise à disposition, en passant par leur maintenance et leur interconnexion avec d'autres ressources.La première partie de la thèse est dédiée à un état de l'art englobant tant les récentes évolutions des normes internationales de description archivistique que le développement de l'écosystème Wikibase. La seconde partie vise à analyser les possibilités et les limites d'une approche faisant appel au logiciel libre Wikibase. Cette seconde partie s'appuie sur une étude empirique menée dans le contexte du Centre d'Études et de Documentation Guerre et Sociétés Contemporaines (CegeSoma). Elle permet de tester les perspectives dont disposent des institutions possédant des ressources limitées et n'ayant pas encore adopté la logique du Web de données. Par le biais de jeux de données relatifs à des personnes liées à la Seconde Guerre mondiale, elle dissèque les différentes étapes conduisant à leur publication sous forme de données ouvertes et liées. L'expérience menée en seconde partie de thèse montre comment une base de connaissance mue par un logiciel tel que Wikibase rationalise la création de données d'autorité structurées multilingues. Des exemples illustrent la façon dont ces entités peuvent ensuite être réutilisées et enrichies à l'aide de données externes dans le cadre d'interfaces destinées au grand public. Tout en soulignant les limites propres à l'utilisation de Wikibase, cette thèse met en lumière ses possibilités, en particulier dans le cadre de la maintenance des données. Grâce à son caractère empirique et aux recommandations qu'elle formule, cette recherche contribue ainsi aux efforts et réflexions menés dans le cadre de la transition des métadonnées archivistiques.
The subject of this thesis is the management of authority records for persons. The research was conducted in an archival context in transition, which was marked by the evolution of international standards of archival description and a shift towards the application of knowledge graphs. The aim of this thesis is to explore how the archival sector can benefit from the developments concerning Linked Data in order to ensure the sustainable management of authority records. Attention is not only devoted to the creation of the records and how they are made available but also to their maintenance and their interlinking with other resources.The first part of this thesis addresses the state of the art of the developments concerning the international standards of archival description as well as those regarding the Wikibase ecosystem. The second part presents an analysis of the possibilities and limits associated with an approach in which the free software Wikibase is used. The analysis is based on an empirical study carried out with data of the Study and Documentation Centre War and Contemporary Society (CegeSoma). It explores the options that are available to institutions that have limited resources and that have not yet implemented Linked Data. Datasets that contain information of people linked to the Second World War were used to examine the different stages involved in the publication of data as Linked Open Data.The experiment carried out in the second part of the thesis shows how a knowledge base driven by software such as Wikibase streamlines the creation of multilingual structured authority data. Examples illustrate how these entities can then be reused and enriched by using external data in interfaces aimed at the general public. This thesis highlights the possibilities of Wikibase, particularly in the context of data maintenance, without ignoring the limitations associated with its use. Due to its empirical nature and the formulated recommendations, this thesis contributes to the efforts and reflections carried out within the framework of the transition of archival metadata.
Doctorat en Information et communication
info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
25

Duquet, Mario. "Gestion des données agrométéorologiques pour l'autoroute de l'information." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/MQ61339.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Rhin, Christophe. "Modélisation et gestion de données géographiques multi-sources." Versailles-St Quentin en Yvelines, 1997. http://www.theses.fr/1997VERS0010.

Full text
Abstract:
Le nombre de données géographiques disponibles augmente très rapidement à cause de la multiplication des sources de production et de distribution. Les logiciels dédiés à la gestion des données géographiques doivent donc manipuler de gros volumes de données, dont les structures et les représentations sont différentes. Ces logiciels doivent aussi garantir les mêmes fonctionnalités que les systèmes de gestion de bases de données : sûreté de fonctionnement et accès concurrents. Après avoir montré pourquoi les solutions existantes ne peuvent assurer l'ensemble de ces fonctionnalités, nous proposons d'abord un modèle conceptuel de données adapté aux données géographiques multi-sources. Ensuite nous proposons une architecture logicielle qui s'appuie sur un système de gestion de base de données orienté objet et qui conserve l'évolutivité et l'adaptabilité du modèle conceptuel. Cette architecture permet à la fois de garantir les fonctionnalités de base de données et de fournir des méthodes d'accès performantes. L'efficacité de cette architecture est obtenue grâce à l'intégration d'un index spatial au cœur du sgbdoo, au même niveau que les index standards. Nous étudions en détail le comportement d'un index spatial intègré, pour des requêtes de pointe et pour des requêtes de fenêtrage avec des fenêtres de taille variable. De plus, à travers la comparaison avec les comportements du même index spatial non intègré et d'un index standard du sgbdoo, nous mesurons précisément les gains de performance. Enfin nous décrivons les différentes stratégies possibles pour un interpréteur de requêtes comportant des critères thématiques et des critères spatiaux, afin d'utiliser au mieux les index spatiaux
APA, Harvard, Vancouver, ISO, and other styles
27

Richaud, Emmanuel. "L'Instruction budgétaire et comptable M14 et la gestion financière des petites collectivités locales." Corte, 2003. http://www.theses.fr/2003CORT1022.

Full text
Abstract:
L'instruction M14 constitue un système réglementaire déterminant la gestion financière des communes et établissements de coopération intercommunale, notamment les petites collectivités, en vigueur depuis 1997. L'objectif était alors de rapprocher la tenue de leurs comptes du P. C. G. Et de donner une meilleure vision patrimoniale des collectivités. Mais l'analyse systémique démontre que l'irrespect des principes budgétaires et comptables détourne l'instruction de ses buts. Au contraire, l'application de cette instruction engendre l'entropie caractérisée par l'augmentation de l'impôt. Ce phénomène naît de facteurs intrinsèques à la M14, l'irrespect du principe d'unité en raison de la distinction entre section de fonctionnement et section d'investissement, ainsi que de l'introduction de l'amortissement, technique comptable à vocation fiscale. L'entropie constitue également la conséquence de facteurs externes à l'instruction, démontrant ainsi qu'il s'agit d'un système ouvert à des éléments interférents. Ces nouveaux éléments sont constitués par des systèmes normatifs propres à la collectivité ou extérieurs à celle-ci. Ils provoquent un blocage du système dont il découle une augmentation des charges. Parallèlement, l'instruction M14 s'avère inadaptée aux petites collectivités : la mise en œuvre d'une comptabilité patrimoniale apparaît particulièrement ardue en raison de l'hétérogénéité de leur patrimoine et de l'application inappropriée des techniques de l'amortissement et de la provision, donc de l'altération du principe de prudence. De même, la vision patrimoniale n'est que superficielle en raison des limites à l'analyse financière et à la consolidation de leurs comptes. Ce système est au contraire déséquilibré par l'incertitude des acteurs ainsi que par la complexité résultant d'éléments incertains. Ceci amène à s'interroger, au travers de l'activité de la D. G. C. P. , sur la pertinence de l'application actuelle du principe de séparation entre l'ordonnateur et le comptable
The M14 directive is a regulation, establishing the financial management of districts and intra-district coopérative institutions, notably of small-communities. This directive has been in force since 1997. At that time, the aim was to standardize book-keeping, according to the PGC, and to give a best patrimonial outlook of the districts. But, the methodical analyse reveals that the disrespect of financial and accounting principles, divert the directive from its aims
APA, Harvard, Vancouver, ISO, and other styles
28

Demolli, Eric. "Vers un cadre conceptuel d'audit des systèmes d'information comptables et financiers : outils et perspectives." Nice, 1992. http://www.theses.fr/1992NICE0011.

Full text
Abstract:
Vers un cadre conceptual d'audit des systèmes d'information comptables et financiers ; outils et perspectives. Cette thèse porte sur les procédures de l'audit comptable. Elle repose sur le constat d'un "décalage" entre la normalisation comptable (reposant sur des principes dont on se préoccupe de dégager l'unité conceptuelle) et le normalisation de son contrôle (orientée vers les procédures de contrôle). Elle s'interroge sur la cohérence du processus d'audit à travers ses outils et ses pratiques, et envisage l'introduction d'outils nouveaux tels que les systèmes experts. Cette reflexion amène l'auteur à proposer l'élaboration d'un "cadre conceptual d'audit"
This doctoral dissertation discusses procedures of auditing in financial statements. It's based on the observation of a "gap" between accounting normalization (built on principles in which conceptual unity is being established) and it's control normalization (focused on control procedures). It dicusses audit process consistency through its tools and practices. And consideres the introduction of new tools, such as expert systems. This brings the author to propose the development of a "conceptual framework" for auditing
APA, Harvard, Vancouver, ISO, and other styles
29

Ouvrard, Stéphane. "Contribution à la connaissance de la performance financière mesurée en normes IFRS." Bordeaux 4, 2010. http://www.theses.fr/2010BOR40023.

Full text
Abstract:
Grâce aux normes comptables internationales, la comptabilité n'est plus une matière aride réservée aux seuls comptables. Elle intéresse tout le monde. Même les hommes politiques y font référence dans leurs discours. Les normes internationales d'information et de reporting financier, d'application obligatoire à compter du 1er janvier 2005 aux comptes consolidés des groupes cotés européens, considèrent la mesure de la performance financière comme un enjeu stratégique. Après plus de vingt ans d'existence, le cadre conceptuel de l'IASB, qui donne une place privilégiée à l'investisseur, est fondé sur la théorie de l'agence dans son expression la plus simple : analyse des relations entre un mandant (actionnaire) et un mandataire (dirigeant). Ce cadre conceptuel, source de court-termisme et de volatilité, est-il encore adapté aux enjeux actuels de la société (particulièrement en période de crise) ? La financiarisation de la comptabilité relance le débat sur la juste valeur et de façon plus large entre deux approches de la comptabilité : l'approche bilantielle, d'où le concept de résultat global est issu et l'approche par le compte de résultat. Ces différentes conceptions de la comptabilité nous amènent à nous interroger sur le rôle d'une entreprise. L'entreprise se résume-t-elle à la gestion de plusieurs portefeuilles de titres au bénéfice d'une partie-prenante privilégiée (les actionnaires) ? Ou au contraire, son rôle est-il plus large : créer de la valeur à long terme pour l'ensemble des parties prenantes ? A travers ce travail de recherche, nous avons cherché à démontrer qu'il était urgent de revenir aux fondamentaux de la gestion financière d'une entreprise : comprendre et analyser la performance opérationnelle à long terme à travers le modèle économique (business model) de l'entreprise. Les normes sur l'information sectorielle et sur le tableau des flux de trésorerie, très utilisé par les praticiens de l'analyse financière, sont très utilies pour atteindre cet objectif car elles permettent de déterminer des indicateurs de performance opérationnelle à long terme
Thanks to IFRS, accountancy is no longer a dry matter exclusively reserved for accountants. Everybody is interested in it. Even politicians make reference to it in their speeches. For IFRS, which are manadatorily implemented by Eurpean listed companies in their consolidated financial statements since 1st january 2005, financial performance measurement is considered as a strategic stake. After more than twenty years of existence, the IASB conceptual framework, which privileges the investors, is based on the most simple agency theory : analysis the relationships between a principal (investor) and an agent (manager). Is this framework, source of short term vision and of volatility in financial statements, still adapted to the current stakes of our society (particularly in a period of crisis) ? The inclusion of finance in the accounting scope re-launches the debate on fair value and, more widely, on two accounting approaches : the balance sheet approach from which the comprehensive income is issued, and the profit and loss approach. These different concepts of accounting make us question the role of a firm. Can we consider an enterprise as an addition of portfolios for the benefitof privileged stakeholders (investors) ? Or, on the contrary, is its role larger : wealthe creation for the benefit of all stakeholders ? Our research aims to prove that it is urgent to come back to the fundamentals of financial management ; understanding and analyzing the operational performance through the business model of a company. IFRS standards on sector data and on cash flow statements are very useful to reach this goal since they allow for the determination of long term sustainable operating performance indicators
APA, Harvard, Vancouver, ISO, and other styles
30

Zelasco, José Francisco. "Gestion des données : contrôle de qualité des modèles numériques des bases de données géographiques." Thesis, Montpellier 2, 2010. http://www.theses.fr/2010MON20232.

Full text
Abstract:
Les modèles numériques de terrain, cas particulier de modèles numériques de surfaces, n'ont pas la même erreur quadratique moyenne en planimétrie qu'en altimétrie. Différentes solutions ont été envisagées pour déterminer séparément l'erreur en altimétrie et l'erreur planimétrique, disposant, bien entendu, d'un modèle numérique plus précis comme référence. La démarche envisagée consiste à déterminer les paramètres des ellipsoïdes d'erreur, centrées dans la surface de référence. Dans un premier temps, l'étude a été limitée aux profils de référence avec l'ellipse d'erreur correspondante. Les paramètres de cette ellipse sont déterminés à partir des distances qui séparent les tangentes à l'ellipse du centre de cette même ellipse. Remarquons que cette distance est la moyenne quadratique des distances qui séparent le profil de référence des points du modèle numérique à évaluer, c'est à dire la racine de la variance marginale dans la direction normale à la tangente. Nous généralisons à l'ellipsoïde de révolution. C'est le cas ou l'erreur planimétrique est la même dans toutes les directions du plan horizontal (ce n'est pas le cas des MNT obtenus, par exemple, par interférométrie radar). Dans ce cas nous montrons que le problème de simulation se réduit à l'ellipse génératrice et la pente du profil correspondant à la droite de pente maximale du plan appartenant à la surface de référence. Finalement, pour évaluer les trois paramètres d'un ellipsoïde, cas où les erreurs dans les directions des trois axes sont différentes (MNT obtenus par Interférométrie SAR), la quantité des points nécessaires pour la simulation doit être importante et la surface tr ès accidentée. Le cas échéant, il est difficile d'estimer les erreurs en x et en y. Néanmoins, nous avons remarqué, qu'il s'agisse de l'ellipsoïde de révolution ou non, que dans tous les cas, l'estimation de l'erreur en z (altimétrie) donne des résultats tout à fait satisfaisants
A Digital Surface Model (DSM) is a numerical surface model which is formed by a set of points, arranged as a grid, to study some physical surface, Digital Elevation Models (DEM), or other possible applications, such as a face, or some anatomical organ, etc. The study of the precision of these models, which is of particular interest for DEMs, has been the object of several studies in the last decades. The measurement of the precision of a DSM model, in relation to another model of the same physical surface, consists in estimating the expectancy of the squares of differences between pairs of points, called homologous points, one in each model which corresponds to the same feature of the physical surface. But these pairs are not easily discernable, the grids may not be coincident, and the differences between the homologous points, corresponding to benchmarks in the physical surface, might be subject to special conditions such as more careful measurements than on ordinary points, which imply a different precision. The generally used procedure to avoid these inconveniences has been to use the squares of vertical distances between the models, which only address the vertical component of the error, thus giving a biased estimate when the surface is not horizontal. The Perpendicular Distance Evaluation Method (PDEM) which avoids this bias, provides estimates for vertical and horizontal components of errors, and is thus a useful tool for detection of discrepancies in Digital Surface Models (DSM) like DEMs. The solution includes a special reference to the simplification which arises when the error does not vary in all horizontal directions. The PDEM is also assessed with DEM's obtained by means of the Interferometry SAR Technique
APA, Harvard, Vancouver, ISO, and other styles
31

Sandoval, Gomez Maria Del Rosario. "Conception et réalisation du système de gestion de multibases de données MUSE : architecture de schéma multibase et gestion du catalogue des données." Paris 6, 1989. http://www.theses.fr/1989PA066657.

Full text
Abstract:
Durant ces dernieres annees, une nouvelle demarche a ete proposee pour faire face aux problemes poses par l'integration de bases de donnees existantes. C'est la demarche consistant a faire cooperer plusieurs bases sans obligation d'avoir un schema conceptuel global. Elle est connue sous le nom de multibases de donnees. Le systeme que nous presentons, muse, est base sur cette nouvelle demarche. Des questions relatives a l'autonomie des sites et a l'architecture du systeme sont discutees. Dans muse, une multibase se presente comme une collection de base de donnees autonomes et des schemas exportes/importes. Ces schemas sont stockes dans des catalogues d'exportation/importation. Les utilisateurs manipulent les donnees et adressent leurs requetes par moyen du langage d-sql
APA, Harvard, Vancouver, ISO, and other styles
32

Liroz, Miguel. "Partitionnement dans les systèmes de gestion de données parallèles." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2013. http://tel.archives-ouvertes.fr/tel-01023039.

Full text
Abstract:
Au cours des dernières années, le volume des données qui sont capturées et générées a explosé. Les progrès des technologies informatiques, qui fournissent du stockage à bas prix et une très forte puissance de calcul, ont permis aux organisations d'exécuter des analyses complexes de leurs données et d'en extraire des connaissances précieuses. Cette tendance a été très importante non seulement pour l'industrie, mais a également pour la science, où les meilleures instruments et les simulations les plus complexes ont besoin d'une gestion efficace des quantités énormes de données.Le parallélisme est une technique fondamentale dans la gestion de données extrêmement volumineuses car il tire parti de l'utilisation simultanée de plusieurs ressources informatiques. Pour profiter du calcul parallèle, nous avons besoin de techniques de partitionnement de données efficaces, qui sont en charge de la division de l'ensemble des données en plusieurs partitions et leur attribution aux nœuds de calculs. Le partitionnement de données est un problème complexe, car il doit prendre en compte des questions différentes et souvent contradictoires telles que la localité des données, la répartition de charge et la maximisation du parallélisme.Dans cette thèse, nous étudions le problème de partitionnement de données, en particulier dans les bases de données parallèles scientifiques qui sont continuellement en croissance. Nous étudions également ces partitionnements dans le cadre MapReduce.Dans le premier cas, nous considérons le partitionnement de très grandes bases de données dans lesquelles des nouveaux éléments sont ajoutés en permanence, avec pour exemple une application aux données astronomiques. Les approches existantes sont limitées à cause de la complexité de la charge de travail et l'ajout en continu de nouvelles données limitent l'utilisation d'approches traditionnelles. Nous proposons deux algorithmes de partitionnement dynamique qui attribuent les nouvelles données aux partitions en utilisant une technique basée sur l'affinité. Nos algorithmes permettent d'obtenir de très bons partitionnements des données en un temps d'exécution réduit comparé aux approches traditionnelles.Nous étudions également comment améliorer la performance du framework MapReduce en utilisant des techniques de partitionnement de données. En particulier, nous sommes intéressés par le partitionnement efficient de données d'entrée
APA, Harvard, Vancouver, ISO, and other styles
33

Liroz-Gistau, Miguel. "Partitionnement dans les Systèmes de Gestion de Données Parallèles." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2013. http://tel.archives-ouvertes.fr/tel-00920615.

Full text
Abstract:
Au cours des dernières années, le volume des données qui sont capturées et générées a explosé. Les progrès des technologies informatiques, qui fournissent du stockage à bas prix et une très forte puissance de calcul, ont permis aux organisations d'exécuter des analyses complexes de leurs données et d'en extraire des connaissances précieuses. Cette tendance a été très importante non seulement pour l'industrie, mais a également pour la science, où les meilleures instruments et les simulations les plus complexes ont besoin d'une gestion efficace des quantités énormes de données. Le parallélisme est une technique fondamentale dans la gestion de données extrêmement volumineuses car il tire parti de l'utilisation simultanée de plusieurs ressources informatiques. Pour profiter du calcul parallèle, nous avons besoin de techniques de partitionnement de données efficaces, qui sont en charge de la division de l'ensemble des données en plusieurs partitions et leur attribution aux nœuds de calculs. Le partitionnement de données est un problème complexe, car il doit prendre en compte des questions différentes et souvent contradictoires telles que la localité des données, la répartition de charge et la maximisation du parallélisme. Dans cette thèse, nous étudions le problème de partitionnement de données, en particulier dans les bases de données parallèles scientifiques qui sont continuellement en croissance. Nous étudions également ces partitionnements dans le cadre MapReduce. Dans le premier cas, nous considérons le partitionnement de très grandes bases de données dans lesquelles des nouveaux éléments sont ajoutés en permanence, avec pour exemple une application aux données astronomiques. Les approches existantes sont limitées à cause de la complexité de la charge de travail et l'ajout en continu de nouvelles données limitent l'utilisation d'approches traditionnelles. Nous proposons deux algorithmes de partitionnement dynamique qui attribuent les nouvelles données aux partitions en utilisant une technique basée sur l'affinité. Nos algorithmes permettent d'obtenir de très bons partitionnements des données en un temps d'exécution réduit comparé aux approches traditionnelles. Nous étudions également comment améliorer la performance du framework MapReduce en utilisant des techniques de partitionnement de données. En particulier, nous sommes intéressés par le partitionnement efficient de données d'entrée avec l'objectif de réduire la quantité de données qui devront être transférées dans la phase intermédiaire, connu aussi comme " shuffle ". Nous concevons et mettons en œuvre une stratégie qui, en capturant les relations entre les tuples d'entrée et les clés intermédiaires, obtient un partitionnement efficace qui peut être utilisé pour réduire de manière significative le surcharge de communications dans MapReduce.
APA, Harvard, Vancouver, ISO, and other styles
34

Petit, Loïc. "Gestion de flux de données pour l'observation de systèmes." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00849106.

Full text
Abstract:
La popularisation de la technologie a permis d'implanter des dispositifs et des applications de plus en plus développés à la portée d'utilisateurs non experts. Ces systèmes produisent des flux ainsi que des données persistantes dont les schémas et les dynamiques sont hétérogènes. Cette thèse s'intéresse à pouvoir observer les données de ces systèmes pour aider à les comprendre et à les diagnostiquer. Nous proposons tout d'abord un modèle algébrique Astral capable de traiter sans ambiguïtés sémantiques des données provenant de flux ou relations. Le moteur d'exécution Astronef a été développé sur l'architecture à composants orientés services pour permettre une grande adaptabilité. Il est doté d'un constructeur de requête permettant de choisir un plan d'exécution efficace. Son extension Asteroid permet de s'interfacer avec un SGBD pour gérer des données persistantes de manière intégrée. Nos contributions sont confrontées à la pratique par la mise en œuvre d'un système d'observation du réseau domestique ainsi que par l'étude des performances. Enfin, nous nous sommes intéressés à la mise en place de la personnalisation des résultats dans notre système par l'introduction d'un modèle de préférences top-k.
APA, Harvard, Vancouver, ISO, and other styles
35

Liroz, Gistau Miguel. "Partitionnement dans les systèmes de gestion de données parallèles." Thesis, Montpellier 2, 2013. http://www.theses.fr/2013MON20117/document.

Full text
Abstract:
Au cours des dernières années, le volume des données qui sont capturées et générées a explosé. Les progrès des technologies informatiques, qui fournissent du stockage à bas prix et une très forte puissance de calcul, ont permis aux organisations d'exécuter des analyses complexes de leurs données et d'en extraire des connaissances précieuses. Cette tendance a été très importante non seulement pour l'industrie, mais a également pour la science, où les meilleures instruments et les simulations les plus complexes ont besoin d'une gestion efficace des quantités énormes de données.Le parallélisme est une technique fondamentale dans la gestion de données extrêmement volumineuses car il tire parti de l'utilisation simultanée de plusieurs ressources informatiques. Pour profiter du calcul parallèle, nous avons besoin de techniques de partitionnement de données efficaces, qui sont en charge de la division de l'ensemble des données en plusieurs partitions et leur attribution aux nœuds de calculs. Le partitionnement de données est un problème complexe, car il doit prendre en compte des questions différentes et souvent contradictoires telles que la localité des données, la répartition de charge et la maximisation du parallélisme.Dans cette thèse, nous étudions le problème de partitionnement de données, en particulier dans les bases de données parallèles scientifiques qui sont continuellement en croissance. Nous étudions également ces partitionnements dans le cadre MapReduce.Dans le premier cas, nous considérons le partitionnement de très grandes bases de données dans lesquelles des nouveaux éléments sont ajoutés en permanence, avec pour exemple une application aux données astronomiques. Les approches existantes sont limitées à cause de la complexité de la charge de travail et l'ajout en continu de nouvelles données limitent l'utilisation d'approches traditionnelles. Nous proposons deux algorithmes de partitionnement dynamique qui attribuent les nouvelles données aux partitions en utilisant une technique basée sur l'affinité. Nos algorithmes permettent d'obtenir de très bons partitionnements des données en un temps d'exécution réduit comparé aux approches traditionnelles.Nous étudions également comment améliorer la performance du framework MapReduce en utilisant des techniques de partitionnement de données. En particulier, nous sommes intéressés par le partitionnement efficient de données d'entrée
During the last years, the volume of data that is captured and generated has exploded. Advances in computer technologies, which provide cheap storage and increased computing capabilities, have allowed organizations to perform complex analysis on this data and to extract valuable knowledge from it. This trend has been very important not only for industry, but has also had a significant impact on science, where enhanced instruments and more complex simulations call for an efficient management of huge quantities of data.Parallel computing is a fundamental technique in the management of large quantities of data as it leverages on the concurrent utilization of multiple computing resources. To take advantage of parallel computing, we need efficient data partitioning techniques which are in charge of dividing the whole data and assigning the partitions to the processing nodes. Data partitioning is a complex problem, as it has to consider different and often contradicting issues, such as data locality, load balancing and maximizing parallelism.In this thesis, we study the problem of data partitioning, particularly in scientific parallel databases that are continuously growing and in the MapReduce framework.In the case of scientific databases, we consider data partitioning in very large databases in which new data is appended continuously to the database, e.g. astronomical applications. Existing approaches are limited since the complexity of the workload and continuous appends restrict the applicability of traditional approaches. We propose two partitioning algorithms that dynamically partition new data elements by a technique based on data affinity. Our algorithms enable us to obtain very good data partitions in a low execution time compared to traditional approaches.We also study how to improve the performance of MapReduce framework using data partitioning techniques. In particular, we are interested in efficient data partitioning of the input datasets to reduce the amount of data that has to be transferred in the shuffle phase. We design and implement a strategy which, by capturing the relationships between input tuples and intermediate keys, obtains an efficient partitioning that can be used to reduce significantly the MapReduce's communication overhead
APA, Harvard, Vancouver, ISO, and other styles
36

Gürgen, Levent. "Gestion à grande échelle de données de capteurs hétérogènes." Grenoble INPG, 2007. http://www.theses.fr/2007INPG0093.

Full text
Abstract:
Cette thèse traite les aspects liés à la gestion à grande échelle de données issues de capteurs hétérogènes. En effet, les capteurs sont de moins en moins chers, de plus en plus nombreux et hétérogènes dans les applications. Ceci implique naturellement le problème de passage à l'échelle et la nécessité de pouvoir exploiter les données provenant de différents types de capteurs. Nous proposons une architecture distribuée et orientée services dans laquelle les tâches de traitement de données sont réparties sur plusieurs niveaux. Les fonctionnalités de gestion de données sont fournies en termes de < > afin de cacher l'hétérogénéité des capteurs sous des services génériques. Nous traitons également les aspects liés à l'administration de parc de capteurs, un sujet non abordé dans ce contexte
This dissertation deals with the issues related to scalable management of heterogeneous sensor data. Ln fact, sensors are becoming less and less expensive, more and more numerous and heterogeneous. This naturally raises the scalability problem and the need for integrating data gathered from heterogeneous sensors. We propose a distributed and service-oriented architecture in which data processing tasks are distributed at severallevels in the architecture. Data management functionalities are provided in terms of "services", in order to hide sensor heterogeneity behind generic services. We equally deal with system management issues in sensor farms, a subject not yet explored in this context
APA, Harvard, Vancouver, ISO, and other styles
37

Etien-Gnoan, N'Da Brigitte. "L'encadrement juridique de la gestion électronique des données médicales." Thesis, Lille 2, 2014. http://www.theses.fr/2014LIL20022/document.

Full text
Abstract:
La gestion électronique des données médicales consiste autant dans le simple traitement automatisé des données personnelles que dans le partage et l'échange de données relatives à la santé. Son encadrement juridique est assuré, à la fois, par les règles communes au traitement automatisé de toutes les données personnelles et par celles spécifiques au traitement des données médicales. Cette gestion, même si elle constitue une source d'économie, engendre des problèmes de protection de la vie privée auxquels le gouvernement français tente de faire face en créant l'un des meilleurs cadres juridiques au monde, en la matière. Mais, de grands chantiers comme celui du dossier médical personnel attendent toujours d'être réalisés et le droit de la santé se voit devancer et entraîner par les progrès technologiques. Le développement de la télésanté bouleverse les relations au sein du colloque singulier entre le soignant et le soigné. L'extension des droits des patients, le partage de responsabilité, l'augmentation du nombre d'intervenants, le secret médical partagé constituent de nouveaux enjeux avec lesquels il faut, désormais compter. Une autre question cruciale est celle posée par le manque d'harmonisation des législations augmentant les risques en cas de partage transfrontalier de données médicales
The electronic management of medical data is as much in the simple automated processing of personal data in the sharing and exchange of health data . Its legal framework is provided both by the common rules to the automated processing of all personal data and those specific to the processing of medical data . This management , even if it is a source of economy, creates protection issues of privacy which the French government tries to cope by creating one of the best legal framework in the world in this field. However , major projects such as the personal health record still waiting to be made and the right to health is seen ahead and lead by technological advances . The development of e-health disrupts relationships within one dialogue between the caregiver and the patient . The extension of the rights of patients , sharing responsibility , increasing the number of players , the shared medical confidentiality pose new challenges with which we must now count. Another crucial question is posed by the lack of harmonization of legislation increasing the risks in cross-border sharing of medical
APA, Harvard, Vancouver, ISO, and other styles
38

Tort, Éric. "Contribution à la connaissance des systèmes comptables des grandes entreprises en France : approches organisationnelles, managériales et pratiques de gestion : bilan et perspectives." Paris 1, 2001. http://www.theses.fr/2001PA01A001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Faye, David Célestin. "Médiation de données sémantique dans SenPeer, un système pair-à-pair de gestion de données." Phd thesis, Université de Nantes, 2007. http://tel.archives-ouvertes.fr/tel-00481311.

Full text
Abstract:
La société de l'information demande un accès efficace à un ensemble d'informations qui sont souvent hétérogènes et distribuées. Dans le but d'un partage efficace de cette information, plusieurs solutions techniques ont été proposées. L'infrastructure Pair-à-Pair (P2P) est un paradigme émergent et offrant de nouvelles opportunités pour la mise en place de systèmes distribués à grande échelle. D'autre part, le concept de base de données distribuée a été introduit dans le but d'organiser une collection multiple de bases de données logiquement liées et distribuées sur un réseau d'ordinateurs. Récemment, les systèmes P2P de gestion de données communément appelés PDMS (Peer Data Management System) ont vu le jour. Ils combinent les avantages des systèmes P2P avec ceux des bases de données distribuées. Dans le but de contribuer à la recherche sur la gestion de données dans un contexte P2P, nous proposons le PDMS SenPeer. SenPeer suit une topologie super-pair basée sur l'organisation des pairs en communautés sémantiques en fonction de leur thème d'intérêt. Pour faciliter l'échange de données entre pairs nous établissons des processus de découverte de correspondances sémantiques et de reformulation de requêtes en présence de plusieurs modèles de données. Ces correspondances sémantiques, en combinaison avec les schémas des pairs sont à la base d'une topologie sémantique au dessus du réseau physique et utilisée pour un routage efficace des requêtes. Les requêtes sont échangées à travers un format commun d'échange de requête et un processus d'optimisation distribué permet de choisir le meilleur plan d'exécution de la requête en fonction des caractéristiques du PDMS. Une validation expérimentale par la mise en place d'un simulateur permet d'affirmer l'utilité et la performance des techniques proposées.
APA, Harvard, Vancouver, ISO, and other styles
40

Djellalil, Jilani. "Conception et réalisation de multibases de données." Lyon 3, 1989. http://www.theses.fr/1989LYO3A003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Mard, Yves. "Déterminants et instruments de la gestion des résultats comptables : étude empirique sur un échantillon d'entreprises françaises cotées." Aix-Marseille 3, 2002. http://www.theses.fr/2002AIX32045.

Full text
Abstract:
L'étude de la gestion des résultats porte sur les décisions prises par les dirigeants d'entreprises afin d'orienter les résultats comptables. L'objectif de la recherche est d'analyser les déterminants et les instruments de la gestion des résultats, et d'en tirer des enseignements pratiques. La démarche hypothético-déductive comprend trois étapes. Tout d'abord, une revue de littérature permet d'émettre des hypothèses relatives aux facteurs explicatifs de la gestion des résultats. Ensuite, une étude empirique est conduite sur un échantillon de 294 sociétés françaises cotées entre 1990 et 1998. Deux méthodologies sont utilisées : l'étude des distributions de résultats et celle des accruals des firmes. Les analyses globales et sectorielles montrent la diversité des incitations (politique financière, performance), des contraintes (contrôle) et des instruments de la gestion des résultats. La dernière étape tire les enseignements de nos recherches et propose des facteurs susceptibles de diminuer la gestion des résultats : le développement du gouvernement des entreprises, le renforcement de l'indépendance des commissaires aux comptes, l'évolution du modèle comptable
Studies on earnings management analyse managers'decisions that influence earnings. The purpose of our research is to study determinants and instruments of earnings management, and to draw practical teachings from this study. Our processes consists of three stages. First, a survey leads to hypotheses about determinants of earnings management. We then test the hypotheses on a sample of 294 french listed firms during the period 1990-1998. Two methodologies are used : the study of earnings distributions and the study of accruals from firms. Aggregate and sector-based analyses show the diversity of determinants (financial policy, performance, control) and instruments of earnings management. We finally propose some ways to reduce earnings management : the renforcement of governance structures, the growth of auditors'independance, the evolution of accounting and financial regulation
APA, Harvard, Vancouver, ISO, and other styles
42

Cho, Choong-Ho. "Structuration des données et caractérisation des ordonnancements admissibles des systèmes de production." Lyon, INSA, 1989. http://www.theses.fr/1989ISAL0053.

Full text
Abstract:
Dans ce mémoire, nous proposons, dans une phase préliminaire, la spécification et la modélisation de la base de données pour l'ordonnancement au sein d'une architecture hiérarchique de gestion de production, et de façon plus approfondie, la spécification analytique des ensembles de solutions admissibles pour aider à l'ordonnancement de trois types d'ateliers différents : - l'un, composé de plusieurs machines en en considérant les temps de réglage comme important sous des contraintes ensemblistes et Cou séquentielles, "flow-shop", un critère potentielles - un autre, composé d'une machine seule, avec des contraintes de dates limite de lots, la machine étant assimilée à une cellule de gestion au sein de l'atelier, et le "job-shop" classique, avec les trois contraintes précédentes: ensemblistes, potentielles, et dates limite. Un des caractères originaux de ce travail notamment, l'introduction d'une nouvelle structure de pour modéliser des familles de séquences de tâches
This work deals, on the one band, with the specification and the modelization of data bases for the scheduling problems in a hierarchical architecture of manufacturing systems, on the other hand, with the analytical specification of the set of feasible solutions for the decision support scheduling problems about three different types of workshops: - first, made up several machines (flowshop: sequences of operations are the same for all jobs), considering the important cri teri on as the set up times under set tasks groups) and potential. Constraints, - second, with only one machine, under the given due dates of jobs constraints, finally, organised in a jobshop, under the three previous constraints: set, potential and due dates. One of original researchs concerns the new structure: PQR trees, to characterise the set of feasible sequences of tasks
APA, Harvard, Vancouver, ISO, and other styles
43

Guégot, Françoise. "Gestion d'une base de données mixte, texte et image : application à la gestion médicale dentaire." Paris 9, 1989. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1989PA090042.

Full text
Abstract:
Dans le cadre de l’informatique des organisations, nous avons montré sur un exemple concret - cabinet dentaire - que l’apport de l’image peut être décisif pour l’aide à la décision. Cette démonstration est là pour fixer les principes d’un système de gestion de base de données mixtes. Une base de données textuelles est constituée grâce à un générateur de SIAD, ainsi que les traitements nécessaires sur ces données, une base de données d’images est définie en parallèle après un inventaire des différentes techniques de traitement de l’image, enfin une liaison est réalisée entre les deux pour constituer un système de gestion de bases de données mixtes
In the frame work of organizational data processing, we have shown, on an actual example -a dental surgeon cabinet- that image display constitutes a bonus which may prove decisive in decision making. This should be considered to play down the principles governing a mixed data basic managering system. A basis of text data will be constituted through an S. I. A. D generator which will also perform the necessary processing of the said data. A basis of image data will be established. In parallel with the former, from an inventory of the various image processing techniques. Finally, both basis will be connected to form the mixed data managerial system
APA, Harvard, Vancouver, ISO, and other styles
44

Le, Mahec G. "Gestion des bases de données biologiques sur grilles de calculs." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2008. http://tel.archives-ouvertes.fr/tel-00462306.

Full text
Abstract:
Depuis le début des années 80, les bases de données biologiques n'ont cessé de gagner en volume. Une recherche sur ces bases qui ne prenait que quelques minutes peut désormais nécessiter plusieurs jours. En parallèle, la communauté de recherche en bioinformatique s'est développée et des laboratoires spécialisés sont nés partout dans le monde. La collaboration et l'échange de données entre équipes de recherche parfois géographiquement très éloignées a conduit à considérer la grille comme un moyen adapté à la fois aux nouveaux besoins en terme de puissance de calcul mais aussi comme outil de partage et de distribution des données biologiques entre chercheurs. L'utilisation de la grille pour la recherche en biologie et bioinformatique est un atout considérable, cependant de nouvelles problématiques apparaissent quant `a la gestion des données ainsi que dans l'ordonnancement des tâches qui doit prendre en compte la taille et la disponibilité des données. Cette thèse aborde ces problématiques nouvelles en prenant en compte les spécificités des bases de données biologiques pour une utilisation efficace de la grille. Nous montrons l'intérêt des approches semi-statiques joignant réplications de données et ordonnancement des tâches. Pour cela, nous avons procédé en trois étapes : une analyse théorique, une première validation par simulation et enfin une implantation sur plateforme réelle. La mise en place de la plateforme a mené à la conception d'un nouveau gestionnaire de données pour l'intergiciel DIET : DAGDA. Au-delà des applications de bioinformatique, ce gestionnaire de données peut répondre aux besoins de nombreuses applications portées sur les grilles de calcul
APA, Harvard, Vancouver, ISO, and other styles
45

Pierkot, Christelle. "Gestion de la Mise à Jour de Données Géographiques Répliquées." Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00366442.

Full text
Abstract:
De nos jours, l'information géographique constitue une ressource incontournable dans un contexte de prise de décision et les données numériques spatiales sont de plus en plus fréquemment exploitées comme support et aide à la décision par de nombreuses organisations.
L'institution militaire utilise elle aussi les données spatiales comme soutien et aide à la décision. A chaque étape d'une mission, des informations géographiques de tous types sont employées (données numériques, cartes papiers, photographies aériennes...) pour aider les unités dans leurs choix stratégiques. Par ailleurs, l'utilisation de réseaux de communication favorise le partage et l'échange des données spatiales entre producteurs et utilisateurs situés à des endroits différents. L'information n'est pas centralisée, les données sont répliquées sur chaque site et les utilisateurs peuvent ponctuellement être déconnectés du réseau, par exemple lorsqu'une unité mobile va faire des mesures sur le terrain.
La problématique principale concerne donc la gestion dans un contexte militaire, d'une application collaborative permettant la mise à jour asynchrone et symétrique de données géographiques répliquées selon un protocole à cohérence faible optimiste. Cela nécessite de définir un modèle de cohérence approprié au contexte militaire, un mécanisme de détection des mises à jour conflictuelles lié au type de données manipulées et des procédures de réconciliation des écritures divergentes adaptées aux besoins des unités participant à la mission.
L'analyse des travaux montre que plusieurs protocoles ont été définis dans les communautés systèmes (Cederqvist :2001 ; Kermarrec :2001) et bases de données (Oracle :2003 ; Seshadri :2000) pour gérer la réplication des données. Cependant, les solutions apportées sont souvent fonctions du besoin spécifique de l'application et ne sont donc pas réutilisables dans un contexte différent, ou supposent l'existence d'un serveur de référence centralisant les données. Les mécanismes employés en information géographique pour gérer les données et les mises à jour ne sont pas non plus appropriés à notre étude car ils supposent que les données soient verrouillées aux autres utilisateurs jusqu'à ce que les mises à jour aient été intégrée (approche check in-check out (ESRI :2004), ou utilisent un serveur centralisé contenant les données de référence (versionnement : Cellary :1990).
Notre objectif est donc de proposer des solutions permettant l'intégration cohérente et autant que possible automatique, des mises à jour de données spatiales dans un environnement de réplication optimiste, multimaître et asynchrone.
Nous proposons une stratégie globale d'intégration des mises à jour spatiales basée sur une vérification de la cohérence couplé à des sessions de mises à jour. L'originalité de cette stratégie réside dans le fait qu'elle s'appuie sur des métadonnées pour fournir des solutions de réconciliation adaptées au contexte particulier d'une mission militaire.
La contribution de cette thèse est double. Premièrement, elle s'inscrit dans le domaine de la gestion de la mise à jour des données spatiales, domaine toujours très actif du fait de la complexité et de l'hétérogénéité des données (Nous limitons néanmoins notre étude aux données géographiques vectorielles) et de la relative «jeunesse » des travaux sur le sujet. Deuxièmement, elle s'inscrit dans le domaine de la gestion de la cohérence des données répliquées selon un protocole optimiste, en spécifiant en particulier, de nouveaux algorithmes pour la détection et la réconciliation de données conflictuelles, dans le domaine applicatif de l'information géographique.
APA, Harvard, Vancouver, ISO, and other styles
46

Gagnon, Bertrand. "Gestion d'information sur les procédés thermiques par base de données." Thesis, McGill University, 1986. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=65447.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Antoine, Émilien. "Gestion des données distribuées avec le langage de règles: Webdamlog." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00908155.

Full text
Abstract:
Notre but est de permettre à un utilisateur du Web d'organiser la gestion de ses données distribuées en place, c'est à dire sans l'obliger à centraliser ses données chez un unique hôte. Par conséquent, notre système diffère de Facebook et des autres systèmes centralisés, et propose une alternative permettant aux utilisateurs de lancer leurs propres pairs sur leurs machines gérant localement leurs données personnelles et collaborant éventuellement avec des services Web externes. Dans ma thèse, je présente Webdamlog, un langage dérivé de datalog pour la gestion de données et de connaissances distribuées. Le langage étend datalog de plusieurs manières, principalement avec une nouvelle propriété la délégation, autorisant les pairs à échanger non seulement des faits (les données) mais aussi des règles (la connaissance). J'ai ensuite mené une étude utilisateur pour démontrer l'utilisation du langage. Enfin je décris le moteur d'évaluation de Webdamlog qui étend un moteur d'évaluation de datalog distribué nommé Bud, en ajoutant le support de la délégation et d'autres innovations telles que la possibilité d'avoir des variables pour les noms de pairs et des relations. J'aborde de nouvelles techniques d'optimisation, notamment basées sur la provenance des faits et des règles. Je présente des expérimentations qui démontrent que le coût du support des nouvelles propriétés de Webdamlog reste raisonnable même pour de gros volumes de données. Finalement, je présente l'implémentation d'un pair Webdamlog qui fournit l'environnement pour le moteur. En particulier, certains adaptateurs permettant aux pairs Webdamlog d'échanger des données avec d'autres pairs sur Internet. Pour illustrer l'utilisation de ces pairs, j'ai implémenté une application de partage de photos dans un réseau social en Webdamlog.
APA, Harvard, Vancouver, ISO, and other styles
48

Dia, Amadou Fall. "Filtrage sémantique et gestion distribuée de flux de données massives." Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS495.

Full text
Abstract:
Notre utilisation quotidienne de l’Internet et des technologies connexes génère, de manière continue et à des vitesses rapides et variables, de grandes quantités de données hétérogènes issues des réseaux de capteurs, des logs de moteurs de recherches génériques ou spécialisés, des données de sites de contenu multimédia, des données de mesure de stations météorologiques, de la géolocalisation, des applications IoT (l’Internet des objets), etc. Traiter de telles données dans les bases de données conventionnelles (Systèmes de Gestion de Bases de Données Relationnelles) peut être très coûteux en ressources temporelles et mémoires. Pour répondre efficacement aux besoins et aider à la prise de décision, ces flots d’informations nécessitent des traitements en temps réel. Les Systèmes de Gestion de Flux de Données (SGFDs) posent et évaluent des requêtes sur les données récentes d’un flux dans des structures appelées fenêtre. Les données en entrée des SGFDs sont de différents formats bruts tels que CSV, XML, RSS, ou encore JSON. Ce verrou d’hétérogénéité émane de la nature des flux de données et doit être levé. Pour cela, plusieurs groupes de recherche ont bénéficié des avantages des technologies du web sémantique (RDF et SPARQL) en proposant des systèmes de traitement de flux de données RDF appelés RSPs. Cependant, la volumétrie des données, le débit d’entrée élevé, les requêtes concurrentes, le croisement des flux RDF à de larges volumes de données stockées et les calculs coûteux baissent considérablement les performances de ces systèmes. Il faut prévoir une nouvelle approche de réduction de la charge de traitement des flux de données RDF. Dans cette thèse, nous proposons plusieurs solutions pour réduire la charge de traitement de flux de données en mode centralisé. Une approche d’échantillonnage à la volée de flux de graphes RDF est proposée afin de réduire la charge de données et du traitement des flux tout en préservant les liens sémantiques. Cette approche est approfondie en adoptant une méthode de résumé orienté graphe pour extraire des graphes RDF les informations les plus pertinentes en utilisant des mesures de centralité issues de l’Analyse des Réseaux Sociaux. Nous adoptons également un format compressé des données RDF et proposons une approche d’interrogation de données RDF compressées sans phase de décompression. Pour assurer une gestion parallèle et distribuée des flux de données, le travail présenté propose deux solutions supplémentaires de réduction de la charge de traitement en mode distribué : un moteur de traitement parallèle et distribué de flux de graphes RDF et une approche de traitement optimisé des opérations de croisement entre données statiques et dynamiques sont présentés
Our daily use of the Internet and related technologies generates, at a rapid and variable speeds, large volumes of heterogeneous data issued from sensor networks, search engine logs, multimedia content sites, weather forecasting, geolocation, Internet of Things (IoT) applications, etc. Processing such data in conventional databases (Relational Database Management Systems) may be very expensive in terms of time and memory storage resources. To effectively respond to the needs of rapid decision-making, these streams require real-time processing. Data Stream Management Systems (SGFDs) evaluate queries on the recent data of a stream within structures called windows. The input data are different formats such as CSV, XML, RSS, or JSON. This heterogeneity lock comes from the nature of the data streams and must be resolved. For this, several research groups have benefited from the advantages of semantic web technologies (RDF and SPARQL) by proposing RDF data streams processing systems called RSPs. However, large volumes of RDF data, high input streams, concurrent queries, combination of RDF streams and large volumes of stored RDF data and expensive processing drastically reduce the performance of these systems. A new approach is required to considerably reduce the processing load of RDF data streams. In this thesis, we propose several complementary solutions to reduce the processing load in centralized environment. An on-the-fly RDF graphs streams sampling approach is proposed to reduce data and processing load while preserving semantic links. This approach is deepened by adopting a graph-oriented summary approach to extract the most relevant information from RDF graphs by using centrality measures issued from the Social Networks Analysis. We also adopt a compressed format of RDF data and propose an approach for querying compressed RDF data without decompression phase. To ensure parallel and distributed data streams management, the presented work also proposes two solutions for reducing the processing load in distributed environment. An engine and parallel processing approaches and distributed RDF graphs streams. Finally, an optimized processing approach for static and dynamic data combination operations is also integrated into a new distributed RDF graphs streams management system
APA, Harvard, Vancouver, ISO, and other styles
49

Le, Mahec Gaël. "Gestion des bases de données biologiques sur grilles de calcul." Clermont-Ferrand 2, 2008. http://www.theses.fr/2008CLF21891.

Full text
Abstract:
L'utilisation de la grille pour la recherche en biologie et bioinformatique est un atout considérable, cependant de nouvelles problématiques apparaissent quant à la gestion des données ainsi que dans l'ordonnancement des tâches qui doit prendre en compte la taille et la disponibilité des données. Cette thèse aborde ces problématiques nouvelles en prenant en compte les spécificités des bases de données biologiques pour une utilisation efficace de la grille. Nous montrons l'intérêt des approches semi-statiques joignant réplications de données et ordonnancement des tâches. La mise en place d'une plateforme de soumission de requêtes BLAST a mené à la conception d'un nouveau gestionnaire de données pour l'intergiciel DIET : DAGDA. Au delà des applications de bioinformatique, ce gestionnaire de données peut répondre aux besoins de nombreuses applications portées sur les grilles de calcul
APA, Harvard, Vancouver, ISO, and other styles
50

Cheballah, Kamal. "Aides à la gestion des données techniques des produits industriels." Ecully, Ecole centrale de Lyon, 1992. http://www.theses.fr/1992ECDL0003.

Full text
Abstract:
Le travail presente dans cette these se situe dans le contexte de l'approche cim (computer integrated manufacturing) qui a pour but de supporter et d'organiser l'ensemble des taches d'elaboration de produits industriels a l'aide d'outils informatiques. Nous proposons une contribution a la mise en place d'un systeme global pour la realisation concrete de quelques maillons essentiels. Le premier chapitre introduit un modele d'organisation du processus d'elaboration au niveau logique et physique. Le second chapitre introduit un outil audros (systeme d'aide a l'utilisation de documents dans un reseau d'ordinateurs) qui permet aux utilisateurs de conduire l'elaboration a un niveau strictement logique. Tous les problemes du niveau physique (localisation des donnees, organisation, transport, etc. . . ) sont pris en charge automatiquement. Le chapitre 3 presente l'outil logiciel gelabor (gestion d'elaboration de produits) qui permet de gerer la coherence entre les produits d'une base de donnees techniques. En conclusion, apres validation de la demarche proposee, nous presentons un schema plus general prenant mieux en compte l'aspect concurrentiel et cooperatif des taches d'elaboration. Cette approche est illustree par la specification de gelabor 2 organisant la cooperation d'entites independantes par l'intermediaire d'un blackboard.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography