Academic literature on the topic 'Récupération (informatique)'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Récupération (informatique).'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Récupération (informatique)"

1

Lannoy, Audrey. "Qualité et informatique: maintenances, matériels, protection et récupération des données." Option/Bio 22, no. 453 (2011): 23–25. http://dx.doi.org/10.1016/s0992-5945(11)70755-3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

M., J. M. "Récupération de données informatiques en cas de décès." Revue Francophone des Laboratoires 2017, no. 489 (2017): 112. http://dx.doi.org/10.1016/s1773-035x(17)30041-2.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Récupération (informatique)"

1

Cayot, Robert-Olivier. "Récupération automatique d'erreurs syntaxiques en analyse discriminante rétrograde." Nice, 2001. http://www.theses.fr/2001NICE5690.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Abbas, Karine. "Système d'accès personnalisé à l'information : application au domaine médica." Lyon, INSA, 2008. http://theses.insa-lyon.fr/publication/2008ISAL0092/these.pdf.

Full text
Abstract:
Le travail mené dans le cadre de cette thèse repose sur une problématique centrale : la personnalisation de l’accès à l’information. En effet, face à la croissance considérable des données, à l’hétérogénéité des rôles et des besoins et au rapide développement des systèmes mobiles, il devient important de proposer un système personnalisé capable de fournir à l’utilisateur une information pertinente et adaptée à ses besoins et son utilisation quotidienne. Ce système doit prendre en considération les différentes caractéristiques de l’utilisateur ainsi que l’ensemble des situations contextuelles qui influence son comportement lors de son interaction avec le système d’information. Le système d’accès personnalisé à l’information que nous proposons est basé sur le principe de la gestion des profils. Un modèle générique du profil est proposé afin de couvrir l’ensemble des facettes de la personnalisation. Ce modèle est capable de collecter des informations sur l’utilisateur et son contexte d’utilisation et de représenter tout besoin de personnalisation une fois modélisé. Le système de personnalisation est fondé principalement sur trois éléments : les profils, le contexte et les services. Les profils sont des conteneurs des connaissances sur l’utilisateur. Le contexte définit un ensemble de paramètres qui caractérisent l’environnement d’utilisation du système. Les services sont des programmes autonomes capables d’exécuter les tâches de la personnalisation. Le processus de la personnalisation est déclenché lorsque l’utilisateur envoie une requête et appliqué sur des données structurées extraites des différentes sources de données en réponse à cette requête<br>The thesis work relays on a central problematic : the personalisation access to information. Indeed, with the considerable growth of data, the heterogeneity of roles and needs and the spread development of mobile systems, it becomes important to propose a personalised system to get relevent information. This system allows to user to provide relevent and adapted information. This system takes into account the different user characteristics as well as the different contextual situations which influence his behavior during the information access process. The personalised access system we propose is based on the profiles management. A generic profile model is defined to cover all personalisation facets. The model is able to collect information on user and his context of use and to represent all personalisation needs. The personalised system is mainly founded on three elements : the profiles, the context and the services. The profiles are containers of knowledge on users. The context defines a set of parameters characterising the user environment when the system is used. The services are autonomous programs able to execut the personalisation tasks. The personalisation process starts when the user sends a request that produces the extraction of data useful for it
APA, Harvard, Vancouver, ISO, and other styles
3

Rollin, Florence. "TRANSFERT DE FICHIERS EN MODE MESSAGERIE." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 1986. http://tel.archives-ouvertes.fr/tel-00807456.

Full text
Abstract:
Le développement rapide des réseaux et de la télématique a mis en évidence la nécessité de définir des normes tant au niveau du matériel que du logiciel. D'importants travaux sont menés par les organismes nationaux et internationaux de normalisation: CCITT, ISO, AFNOR. Ces derniers sont aujourd'hui soutenus par l'ensemble des constructeurs et utilisateurs du monde de l'informatique et des télécommunications. Le modèle de référence pour l'interconnexion des systèmes ouverts (OSI) est le point de départ d'un ensemble de normes qui définissent le fonctionnement d'un réseau composé de systèmes informatiques hétérogènes répartis à travers le monde. La messagerie X400, appelée également courrier électronique, est sans doute une des premières applications normalisées s'appuyant sur le modèle OSI. De nombreuses autres applications bureautiques et télématiques sont en cours d'étude. En .dehors des problèmes politiques et économiques, on peut dire aujourd'hui que la normalisation se porte bien. * C'est dans l'idée de définit de nouvelles* applications utilisant les services normalisés dont la messagerie X400 que des groupes de travail Architel ont été crées à l'initiative de M. Claude Kintzig. Les applications actuellement étudiées sont le*s suivantes: * TFMM : Transfert de Fichiers en Mode Messagerie. * STMM: Soumission de Travaux en Mode messagerie * CRMM : Conférences Réparties en Mode Messagerie * BIMM : Bases d'Informations en Mode Messagerie Tous ces projets ont en commun deux points. Ils utilisent pour communiquer les services de Transfert de Messages X400. Et ils fonctionnent dans un environnement de systèmes et de machines hétérogènes.
APA, Harvard, Vancouver, ISO, and other styles
4

Silva-Julia, Rita da. "Un système hybride pour le traitement du langage naturel et pour la récupération de l'information." Toulouse 3, 1995. http://www.theses.fr/1995TOU30255.

Full text
Abstract:
Nous proposons dans ce memoire la mise en uvre d'un systeme hybride de liaison entre les ressources du calcul des predicats et celles de la logique terminologique. Ce systeme est capable de: ? produire une representation formelle d'exigences exprimees en langage naturel dans le cadre de specifications de logiciel. ? introduire dans une base de connaissances la representation formelle obtenue pour chaque exigence en prenant soin de detecter les possibles redondances et contradictions. ? repondre a des questions posees au systeme, par l'execution d'un mecanisme d'inference permettant la recuperation de l'information stockee dans la base de connaissances. Les exigences appartiennent a un sous-ensemble restreint du langage naturel qui se situe dans le contexte du domaine spatial. La representation formelle d'une exigence est obtenue par une analyse syntaxique et semantique. Elle correspond a une formule du calcul des predicats dont les variables sont annotees par des expressions de la logique terminologique qui les particularisent. L'analyseur syntaxico-semantique implemente est un systeme formel construit selon la theorie du structuralisme. Ce systeme formel definit une grammaire applicative dont le mecanisme d'application est guide par une methode heuristique de l'intelligence artificielle. Les reponses du systeme correspondent a l'evaluation partielle des questions par rapport a la base de connaissances. La recuperation de l'information est effectuee par un demonstrateur de theoreme base sur la technique de la resolution lineaire. Ce demonstrateur utilise la semantique de la logique terminologique pour guider son mecanisme d'inference. Les principales contributions de notre travail sont les suivantes: ? la mise en uvre d'un analyseur syntaxico-semantique qui engendre automatiquement des regles semantiques, ce qui dispense le linguiste de la tache de les definir. ? l'utilisation d'une methode heuristique de l'intelligence artificielle pour guider le processus d'analyse. ? l'utilisation d'une unification semantique pour lier les methodes d'inference du calcul des predicats et de la logique terminologique. ? l'utilisation de la subsomption pour simplifier la base de connaissances et le processus de recuperation de l'information
APA, Harvard, Vancouver, ISO, and other styles
5

Kaba, Bangaly. "Décomposition de graphes comme outil de regroupement et de visualisation en fouille de données." Clermont-Ferrand 2, 2008. http://www.theses.fr/2008CLF21871.

Full text
Abstract:
La fouille de données est un domaine largement étudié et les méthodes utilisées pour l'aborder ont fait le sujet de nombreux travaux. Ces méthodes reposent en général sur les outils de classification classiques supervisés et non supervisés. Ces méthodes forment des clusters disjoints, attribuant les éléments à un seul groupe. Dans de nombreux cas réels, les éléments à classer peuvent appartenir à plusieurs groupes. Nous abordons cette problématique avec une nouvelle approche basée sur la décomposition des graphes. Cette décomposition est basée sur les séparateurs minimaux complets qui sont des ensembles de sommets formant des cliques dont le retrait déconnecte le graphe en une ou plusieurs composantes et pour lesquels des résultats en théorie des graphes donnent des outils algorithmiques puissants. Cette décomposition fournit des groupes d'éléments recouvrants. Nous dérivons de cette décomposition un outil de visualisation permettant de mettre en évidence la structure du graphe formé par ces données. Nous avons travaillé sur des données issues de 2 domaines (bioinformatique et fouille de données textuelles) afin de valider cette approche de décomposition. 1. Bioinformatique : Les mesures de l'activité génique des cellules vivantes par des biopuces fournissent des données sous forme de matrices symétriques. Nous construisons des graphes de gènes en fixant des seuils sur ces matrices. Nous examinons la stucture de ces graphes afin de mettre en évidence des groupes de gènes qui ont des profils d'expression similaires et dont on peut estimer la probabilité de participation à des fonctions similaires. 2. Fouille de données textuelles : les relations entre données textuelles d'un corpus donné sont modélisées par un graphe de termes. Ces relations sont fondées soit sur la cooccurence, soit sur des variations linguistiques. Nous proposons une méthode de visualisation basée sur la décomposition de graphes en atomes (sous-graphes recouvrants sans séparateurs minimaux complets). Ces atomes sont structurés dans un graphe appelé graphe des atomes. Ce graphe des atomes met en évidence les thématiques donnant une vue globale sur l'ensemble des documents contenus dans un corpus
APA, Harvard, Vancouver, ISO, and other styles
6

Contat, Marc. "Etude de stratégies d'allocation de ressources et de fusion de données dans un système multi-capteurs pour la classification et la reconnaissance de cibles aériennes." Paris 11, 2002. http://www.theses.fr/2002PA112310.

Full text
Abstract:
La nécessité d'obtenir une situation opérationnelle fidèle et de plus en plus précise dans des applications militaires ou civiles a conduit à un développement rapide des systèmes multi-capteurs. La multiplication des moyens de mesure et l'augmentation de leurs performances ont renforcé le besoin d'améliorer les stratégies d'acquisition de l'information. Ainsi une collaboration entre les capteurs d'un même système fournirait la possibilité d'accroître l'efficacité globale par un raffinement des mécanismes de prise de décision dépendant des caractéristiques des capteurs et de l'environnement. Par ailleurs, l'allocation des ressources gère le problème de l'adéquation entre les ressources physiques disponibles à capacité limitée et le volume d'informations à traiter. L'objet de cette thèse est d'étudier les stratégies d'allocation de ressources et de fusion de données pour le suivi et l'identification simultanés de plusieurs cibles. Dans cette optique, la classification et la reconnaissance des objets doivent être effectuées le plus rapidement possible, sans attendre toutes les données que peuvent fournir les capteurs. Un mécanisme est proposé afin d'ordonner le choix des attributs à déterminer en premier et ainsi la sélection du capteur et de son mode. Il effectue la gestion des requêtes adressées aux capteurs en fonction des informations a priori et des données reçues des précédentes mesures. Etabli sous forme modulaire, l'algorithme a été ensuite amélioré pour tenir compte de données contextuelles, dans le choix des modes de capteurs à mettre en oeuvre, en vue de les utiliser de façon optimale. Les résultats ont été validés sur un logiciel développé dans le cadre d'une application de reconnaissance non coopérative de cibles en surveillance aérienne<br>The need for obtaining a faithful and more and more precise operational situation in military or civil applications led to a fast development of the multisensor systems. The multiplication of the means of measurement and the increase in their performances reinforced the need to improve the strategies of acquisition for information. Thus a collaboration between the sensors of the same system would provide the possibility of increasing the total effectiveness by a refinement of the mechanisms of decision-making depending on the characteristics of the sensors and the environment. In addition, the resource allocation manages the problem of the adequacy between the available physical resources with limited capacity and the volume of information to be treated. The object of this thesis is to study the strategies of resource allocation and data fusion for the simultaneous follow-up and the identification of several targets. Accordingly, the classification and the recognition of the objects must be carried out as soon as possible, without awaiting all the data which the sensors can provide. A mechanism is proposed in order to rank the choice of the attributes to be determined in first and thus the selection of the sensor and its mode. It carries out the management of the requests addressed to the sensors according to a priori information and to the received data of preceding measurements. Firstly in modular form, the algorithm was then improved to take account of contextual information, for the choice of the modes of sensors to be implemented, in order to use them in an optimal way. The results were validated on a software developed within the framework of an application of non cooperative target recognition in air monitoring
APA, Harvard, Vancouver, ISO, and other styles
7

Fofana, Siaka. "Contribution à la conception d'un système informatique d'aide à la valorisation des rejets thermiques des procédés discontinus : application à l'ennoblissement textile." Mulhouse, 1989. http://www.theses.fr/1989MULH0123.

Full text
Abstract:
Les rejets thermiques des procédés d'ennoblissement constituent un énorme gisement d'énergie. Pour les procédés discontinus les déphasages existant entre cette forme d'énergie et son utilisation potentielle imposent une gestion des stocks de chaleur. Le concept exergie permet la mise en évidence du potentiel d'énergie contenu dans les rejets et une intégration optimale des dispositifs de récupération permettant leur valorisation. Après avoir défini un modèle de fonctionnement énergétique des procédés, la réalisation d'un logiciel de simulation permet, à partir des choix d'un certain nombre de paramètres dits points de fonctionnement, d'optimiser la consommation énergétique. Dans le cas de l'ennoblissement un fonctionnement optimisé à partir du logiciel permet de réaliser un gain de plus de 20% par rapport aux réglages courants
APA, Harvard, Vancouver, ISO, and other styles
8

Essid, Mehdi. "Intégration des données et applications hétérogènes et distribuées sur le Web." Aix-Marseille 1, 2005. http://www.theses.fr/2005AIX11035.

Full text
Abstract:
Cette thèse se situe dans le cadre général de l'intégration de données hétérogènes sur le Web et plus particulièrement dans le cadre applicatif du domaine géographique. Nous avons orienté nos travaux selon deux directions : 1 - un axe "modèle structuré" : nous avons proposé l'algorithme de réécriture Grouper/Diviser dans le cas de présence de clés. Ensuite, nous avons construit un système de médiation relationnel pour les SIG implantant cet algorithme. L'originalité de notre système est l'extension des capacités manquantes dans les sources par l'intégration d'outils. 2 - un axe "modèle semi-structuré" : nous avons utilisé la même stratégie que Grouper/Diviser afin de proposer un algorithme de réécriture dans un cadre XML. Ensuite, nous avons construit le système VirGIS : un système de médiation conforme à des standards. Grâce à sa conformité aux standards de l'OpenGIS et du W3C, nous avons déployé notre système dans le cadre géographique tout en restant générique à d'autres domaines
APA, Harvard, Vancouver, ISO, and other styles
9

Berti, Contessa Alessandro. "Version tolérante aux fautes d'une machine parallèle asynchrone à réduction de graphes." Toulouse, ENSAE, 1988. http://www.theses.fr/1988ESAE0009.

Full text
Abstract:
Le problème de la tolérance aux fautes et du recouvrement d'erreur est abordé pour le multiprocesseur parallèle "MaRS" (Machine à Réduction Symbolique). Ce système à contrôle décentralisé utilise une communication asynchrone et différée entre des processus coopérants fortement couplés. La machine, qui calcule une expression fonctionnelle par des réécritures successives de son graphe-programme, est constituée de Processeurs de Mémoire et de Processeurs de Réduction interconnectés par un réseau "Omega" de Processeurs de Communication. On propose des mesures de détection de fautes des processeurs et de confinement des erreurs résultantes. Ceci permet un recouvrement d'erreur par reprise : on ramène à un état "non-réduit" les nœuds du graphe qui étaient "en réduction" au moment de l'erreur détectée. En plus, on indique des techniques de masquage de faute / erreur pour les cas où les erreurs sont détectables sans perte d'information. Les fautes simples et multiples des processeurs de communication sont traitées par des mécanismes de reroutage, applicables quand le réseau survivant conserve une Accessibilité Dynamique Pleine. Les combinaisons possibles de mesures, mécanismes et autres techniques définissent un certain nombre de configurations tolérantes aux fautes pour la machine, parmi lesquelles on en choisit deux comme les plus représentatives. Finalement, on propose des directives pour une évaluation des configurations choisies, faite en termes de coût et performance rélatifs.
APA, Harvard, Vancouver, ISO, and other styles
10

Clere, Pascal. "Etude de l'architecture du processeur d'une machine pour les applications temps réel en intelligence artificielle : maia." Paris 11, 1989. http://www.theses.fr/1989PA112179.

Full text
Abstract:
MAIA est un projet développé conjointement par les Laboratoires de Marcoussis et le Centre National d'Etudes des Télécommunications à Lannion. MAlA est un poste de travail qui répond essentiellement à deux types d'applications qui sont la station de travail pour le développement de logiciels dédiés au traitement symbolique et le poste de supervision/conduite de processus en temps réel. MAIA est une machine-langage spécialisée pour l'exécution de LISP et de PROLOG grâce à un jeu d'instructions spécialisé pour la manipulation de listes et du matériel spécifique pour la vérification dynamique du type des objets manipulés, pour le ramasse­ miettes et la gestion des piles d'évaluation LISP. Le logiciel comprend un compilateur et un interprète LISP et de PROLOG, un noyau temps réel multi-tâche, un ramasse-miettes basé sur l'algorithme de Moon et un gestionnaire de mémoire virtuelle<br>MAIA is a joint project between the Centre National d'Etudes des Télécommunications (CNET) at LANNION and the Compagnie Générale d'Electricité at Laboratoires de Marcoussis. MAIA is both a workstation for software development and for executing applications which need powerful syrnbolic computation and real-time supports. As far many specialized workstations, MAlAis a language-machine, both Lisp-machine and Prelog-machine, with microprogrammed support for list manipulation and memory management, hardware for dynarnic data types checking, collecter assist and Lisp stack heads. The software is made of an integrated environment based on Lisp. It includes a Lisp compiler and interpreter as well as a Prolog compiler and interpreter. The kernel system includes real-time multi-processing based on SCEPTRE, garbage-collection based on the MOON's algorithm and virtual memory management
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Récupération (informatique)"

1

iPhone forensics. O'Reilly, 2008.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!