To see the other types of publications on this topic, follow the link: Récupération (informatique).

Dissertations / Theses on the topic 'Récupération (informatique)'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 38 dissertations / theses for your research on the topic 'Récupération (informatique).'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Cayot, Robert-Olivier. "Récupération automatique d'erreurs syntaxiques en analyse discriminante rétrograde." Nice, 2001. http://www.theses.fr/2001NICE5690.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Abbas, Karine. "Système d'accès personnalisé à l'information : application au domaine médica." Lyon, INSA, 2008. http://theses.insa-lyon.fr/publication/2008ISAL0092/these.pdf.

Full text
Abstract:
Le travail mené dans le cadre de cette thèse repose sur une problématique centrale : la personnalisation de l’accès à l’information. En effet, face à la croissance considérable des données, à l’hétérogénéité des rôles et des besoins et au rapide développement des systèmes mobiles, il devient important de proposer un système personnalisé capable de fournir à l’utilisateur une information pertinente et adaptée à ses besoins et son utilisation quotidienne. Ce système doit prendre en considération les différentes caractéristiques de l’utilisateur ainsi que l’ensemble des situations contextuelles qui influence son comportement lors de son interaction avec le système d’information. Le système d’accès personnalisé à l’information que nous proposons est basé sur le principe de la gestion des profils. Un modèle générique du profil est proposé afin de couvrir l’ensemble des facettes de la personnalisation. Ce modèle est capable de collecter des informations sur l’utilisateur et son contexte d’utilisation et de représenter tout besoin de personnalisation une fois modélisé. Le système de personnalisation est fondé principalement sur trois éléments : les profils, le contexte et les services. Les profils sont des conteneurs des connaissances sur l’utilisateur. Le contexte définit un ensemble de paramètres qui caractérisent l’environnement d’utilisation du système. Les services sont des programmes autonomes capables d’exécuter les tâches de la personnalisation. Le processus de la personnalisation est déclenché lorsque l’utilisateur envoie une requête et appliqué sur des données structurées extraites des différentes sources de données en réponse à cette requête<br>The thesis work relays on a central problematic : the personalisation access to information. Indeed, with the considerable growth of data, the heterogeneity of roles and needs and the spread development of mobile systems, it becomes important to propose a personalised system to get relevent information. This system allows to user to provide relevent and adapted information. This system takes into account the different user characteristics as well as the different contextual situations which influence his behavior during the information access process. The personalised access system we propose is based on the profiles management. A generic profile model is defined to cover all personalisation facets. The model is able to collect information on user and his context of use and to represent all personalisation needs. The personalised system is mainly founded on three elements : the profiles, the context and the services. The profiles are containers of knowledge on users. The context defines a set of parameters characterising the user environment when the system is used. The services are autonomous programs able to execut the personalisation tasks. The personalisation process starts when the user sends a request that produces the extraction of data useful for it
APA, Harvard, Vancouver, ISO, and other styles
3

Rollin, Florence. "TRANSFERT DE FICHIERS EN MODE MESSAGERIE." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 1986. http://tel.archives-ouvertes.fr/tel-00807456.

Full text
Abstract:
Le développement rapide des réseaux et de la télématique a mis en évidence la nécessité de définir des normes tant au niveau du matériel que du logiciel. D'importants travaux sont menés par les organismes nationaux et internationaux de normalisation: CCITT, ISO, AFNOR. Ces derniers sont aujourd'hui soutenus par l'ensemble des constructeurs et utilisateurs du monde de l'informatique et des télécommunications. Le modèle de référence pour l'interconnexion des systèmes ouverts (OSI) est le point de départ d'un ensemble de normes qui définissent le fonctionnement d'un réseau composé de systèmes informatiques hétérogènes répartis à travers le monde. La messagerie X400, appelée également courrier électronique, est sans doute une des premières applications normalisées s'appuyant sur le modèle OSI. De nombreuses autres applications bureautiques et télématiques sont en cours d'étude. En .dehors des problèmes politiques et économiques, on peut dire aujourd'hui que la normalisation se porte bien. * C'est dans l'idée de définit de nouvelles* applications utilisant les services normalisés dont la messagerie X400 que des groupes de travail Architel ont été crées à l'initiative de M. Claude Kintzig. Les applications actuellement étudiées sont le*s suivantes: * TFMM : Transfert de Fichiers en Mode Messagerie. * STMM: Soumission de Travaux en Mode messagerie * CRMM : Conférences Réparties en Mode Messagerie * BIMM : Bases d'Informations en Mode Messagerie Tous ces projets ont en commun deux points. Ils utilisent pour communiquer les services de Transfert de Messages X400. Et ils fonctionnent dans un environnement de systèmes et de machines hétérogènes.
APA, Harvard, Vancouver, ISO, and other styles
4

Silva-Julia, Rita da. "Un système hybride pour le traitement du langage naturel et pour la récupération de l'information." Toulouse 3, 1995. http://www.theses.fr/1995TOU30255.

Full text
Abstract:
Nous proposons dans ce memoire la mise en uvre d'un systeme hybride de liaison entre les ressources du calcul des predicats et celles de la logique terminologique. Ce systeme est capable de: ? produire une representation formelle d'exigences exprimees en langage naturel dans le cadre de specifications de logiciel. ? introduire dans une base de connaissances la representation formelle obtenue pour chaque exigence en prenant soin de detecter les possibles redondances et contradictions. ? repondre a des questions posees au systeme, par l'execution d'un mecanisme d'inference permettant la recuperation de l'information stockee dans la base de connaissances. Les exigences appartiennent a un sous-ensemble restreint du langage naturel qui se situe dans le contexte du domaine spatial. La representation formelle d'une exigence est obtenue par une analyse syntaxique et semantique. Elle correspond a une formule du calcul des predicats dont les variables sont annotees par des expressions de la logique terminologique qui les particularisent. L'analyseur syntaxico-semantique implemente est un systeme formel construit selon la theorie du structuralisme. Ce systeme formel definit une grammaire applicative dont le mecanisme d'application est guide par une methode heuristique de l'intelligence artificielle. Les reponses du systeme correspondent a l'evaluation partielle des questions par rapport a la base de connaissances. La recuperation de l'information est effectuee par un demonstrateur de theoreme base sur la technique de la resolution lineaire. Ce demonstrateur utilise la semantique de la logique terminologique pour guider son mecanisme d'inference. Les principales contributions de notre travail sont les suivantes: ? la mise en uvre d'un analyseur syntaxico-semantique qui engendre automatiquement des regles semantiques, ce qui dispense le linguiste de la tache de les definir. ? l'utilisation d'une methode heuristique de l'intelligence artificielle pour guider le processus d'analyse. ? l'utilisation d'une unification semantique pour lier les methodes d'inference du calcul des predicats et de la logique terminologique. ? l'utilisation de la subsomption pour simplifier la base de connaissances et le processus de recuperation de l'information
APA, Harvard, Vancouver, ISO, and other styles
5

Kaba, Bangaly. "Décomposition de graphes comme outil de regroupement et de visualisation en fouille de données." Clermont-Ferrand 2, 2008. http://www.theses.fr/2008CLF21871.

Full text
Abstract:
La fouille de données est un domaine largement étudié et les méthodes utilisées pour l'aborder ont fait le sujet de nombreux travaux. Ces méthodes reposent en général sur les outils de classification classiques supervisés et non supervisés. Ces méthodes forment des clusters disjoints, attribuant les éléments à un seul groupe. Dans de nombreux cas réels, les éléments à classer peuvent appartenir à plusieurs groupes. Nous abordons cette problématique avec une nouvelle approche basée sur la décomposition des graphes. Cette décomposition est basée sur les séparateurs minimaux complets qui sont des ensembles de sommets formant des cliques dont le retrait déconnecte le graphe en une ou plusieurs composantes et pour lesquels des résultats en théorie des graphes donnent des outils algorithmiques puissants. Cette décomposition fournit des groupes d'éléments recouvrants. Nous dérivons de cette décomposition un outil de visualisation permettant de mettre en évidence la structure du graphe formé par ces données. Nous avons travaillé sur des données issues de 2 domaines (bioinformatique et fouille de données textuelles) afin de valider cette approche de décomposition. 1. Bioinformatique : Les mesures de l'activité génique des cellules vivantes par des biopuces fournissent des données sous forme de matrices symétriques. Nous construisons des graphes de gènes en fixant des seuils sur ces matrices. Nous examinons la stucture de ces graphes afin de mettre en évidence des groupes de gènes qui ont des profils d'expression similaires et dont on peut estimer la probabilité de participation à des fonctions similaires. 2. Fouille de données textuelles : les relations entre données textuelles d'un corpus donné sont modélisées par un graphe de termes. Ces relations sont fondées soit sur la cooccurence, soit sur des variations linguistiques. Nous proposons une méthode de visualisation basée sur la décomposition de graphes en atomes (sous-graphes recouvrants sans séparateurs minimaux complets). Ces atomes sont structurés dans un graphe appelé graphe des atomes. Ce graphe des atomes met en évidence les thématiques donnant une vue globale sur l'ensemble des documents contenus dans un corpus
APA, Harvard, Vancouver, ISO, and other styles
6

Contat, Marc. "Etude de stratégies d'allocation de ressources et de fusion de données dans un système multi-capteurs pour la classification et la reconnaissance de cibles aériennes." Paris 11, 2002. http://www.theses.fr/2002PA112310.

Full text
Abstract:
La nécessité d'obtenir une situation opérationnelle fidèle et de plus en plus précise dans des applications militaires ou civiles a conduit à un développement rapide des systèmes multi-capteurs. La multiplication des moyens de mesure et l'augmentation de leurs performances ont renforcé le besoin d'améliorer les stratégies d'acquisition de l'information. Ainsi une collaboration entre les capteurs d'un même système fournirait la possibilité d'accroître l'efficacité globale par un raffinement des mécanismes de prise de décision dépendant des caractéristiques des capteurs et de l'environnement. Par ailleurs, l'allocation des ressources gère le problème de l'adéquation entre les ressources physiques disponibles à capacité limitée et le volume d'informations à traiter. L'objet de cette thèse est d'étudier les stratégies d'allocation de ressources et de fusion de données pour le suivi et l'identification simultanés de plusieurs cibles. Dans cette optique, la classification et la reconnaissance des objets doivent être effectuées le plus rapidement possible, sans attendre toutes les données que peuvent fournir les capteurs. Un mécanisme est proposé afin d'ordonner le choix des attributs à déterminer en premier et ainsi la sélection du capteur et de son mode. Il effectue la gestion des requêtes adressées aux capteurs en fonction des informations a priori et des données reçues des précédentes mesures. Etabli sous forme modulaire, l'algorithme a été ensuite amélioré pour tenir compte de données contextuelles, dans le choix des modes de capteurs à mettre en oeuvre, en vue de les utiliser de façon optimale. Les résultats ont été validés sur un logiciel développé dans le cadre d'une application de reconnaissance non coopérative de cibles en surveillance aérienne<br>The need for obtaining a faithful and more and more precise operational situation in military or civil applications led to a fast development of the multisensor systems. The multiplication of the means of measurement and the increase in their performances reinforced the need to improve the strategies of acquisition for information. Thus a collaboration between the sensors of the same system would provide the possibility of increasing the total effectiveness by a refinement of the mechanisms of decision-making depending on the characteristics of the sensors and the environment. In addition, the resource allocation manages the problem of the adequacy between the available physical resources with limited capacity and the volume of information to be treated. The object of this thesis is to study the strategies of resource allocation and data fusion for the simultaneous follow-up and the identification of several targets. Accordingly, the classification and the recognition of the objects must be carried out as soon as possible, without awaiting all the data which the sensors can provide. A mechanism is proposed in order to rank the choice of the attributes to be determined in first and thus the selection of the sensor and its mode. It carries out the management of the requests addressed to the sensors according to a priori information and to the received data of preceding measurements. Firstly in modular form, the algorithm was then improved to take account of contextual information, for the choice of the modes of sensors to be implemented, in order to use them in an optimal way. The results were validated on a software developed within the framework of an application of non cooperative target recognition in air monitoring
APA, Harvard, Vancouver, ISO, and other styles
7

Fofana, Siaka. "Contribution à la conception d'un système informatique d'aide à la valorisation des rejets thermiques des procédés discontinus : application à l'ennoblissement textile." Mulhouse, 1989. http://www.theses.fr/1989MULH0123.

Full text
Abstract:
Les rejets thermiques des procédés d'ennoblissement constituent un énorme gisement d'énergie. Pour les procédés discontinus les déphasages existant entre cette forme d'énergie et son utilisation potentielle imposent une gestion des stocks de chaleur. Le concept exergie permet la mise en évidence du potentiel d'énergie contenu dans les rejets et une intégration optimale des dispositifs de récupération permettant leur valorisation. Après avoir défini un modèle de fonctionnement énergétique des procédés, la réalisation d'un logiciel de simulation permet, à partir des choix d'un certain nombre de paramètres dits points de fonctionnement, d'optimiser la consommation énergétique. Dans le cas de l'ennoblissement un fonctionnement optimisé à partir du logiciel permet de réaliser un gain de plus de 20% par rapport aux réglages courants
APA, Harvard, Vancouver, ISO, and other styles
8

Essid, Mehdi. "Intégration des données et applications hétérogènes et distribuées sur le Web." Aix-Marseille 1, 2005. http://www.theses.fr/2005AIX11035.

Full text
Abstract:
Cette thèse se situe dans le cadre général de l'intégration de données hétérogènes sur le Web et plus particulièrement dans le cadre applicatif du domaine géographique. Nous avons orienté nos travaux selon deux directions : 1 - un axe "modèle structuré" : nous avons proposé l'algorithme de réécriture Grouper/Diviser dans le cas de présence de clés. Ensuite, nous avons construit un système de médiation relationnel pour les SIG implantant cet algorithme. L'originalité de notre système est l'extension des capacités manquantes dans les sources par l'intégration d'outils. 2 - un axe "modèle semi-structuré" : nous avons utilisé la même stratégie que Grouper/Diviser afin de proposer un algorithme de réécriture dans un cadre XML. Ensuite, nous avons construit le système VirGIS : un système de médiation conforme à des standards. Grâce à sa conformité aux standards de l'OpenGIS et du W3C, nous avons déployé notre système dans le cadre géographique tout en restant générique à d'autres domaines
APA, Harvard, Vancouver, ISO, and other styles
9

Berti, Contessa Alessandro. "Version tolérante aux fautes d'une machine parallèle asynchrone à réduction de graphes." Toulouse, ENSAE, 1988. http://www.theses.fr/1988ESAE0009.

Full text
Abstract:
Le problème de la tolérance aux fautes et du recouvrement d'erreur est abordé pour le multiprocesseur parallèle "MaRS" (Machine à Réduction Symbolique). Ce système à contrôle décentralisé utilise une communication asynchrone et différée entre des processus coopérants fortement couplés. La machine, qui calcule une expression fonctionnelle par des réécritures successives de son graphe-programme, est constituée de Processeurs de Mémoire et de Processeurs de Réduction interconnectés par un réseau "Omega" de Processeurs de Communication. On propose des mesures de détection de fautes des processeurs et de confinement des erreurs résultantes. Ceci permet un recouvrement d'erreur par reprise : on ramène à un état "non-réduit" les nœuds du graphe qui étaient "en réduction" au moment de l'erreur détectée. En plus, on indique des techniques de masquage de faute / erreur pour les cas où les erreurs sont détectables sans perte d'information. Les fautes simples et multiples des processeurs de communication sont traitées par des mécanismes de reroutage, applicables quand le réseau survivant conserve une Accessibilité Dynamique Pleine. Les combinaisons possibles de mesures, mécanismes et autres techniques définissent un certain nombre de configurations tolérantes aux fautes pour la machine, parmi lesquelles on en choisit deux comme les plus représentatives. Finalement, on propose des directives pour une évaluation des configurations choisies, faite en termes de coût et performance rélatifs.
APA, Harvard, Vancouver, ISO, and other styles
10

Clere, Pascal. "Etude de l'architecture du processeur d'une machine pour les applications temps réel en intelligence artificielle : maia." Paris 11, 1989. http://www.theses.fr/1989PA112179.

Full text
Abstract:
MAIA est un projet développé conjointement par les Laboratoires de Marcoussis et le Centre National d'Etudes des Télécommunications à Lannion. MAlA est un poste de travail qui répond essentiellement à deux types d'applications qui sont la station de travail pour le développement de logiciels dédiés au traitement symbolique et le poste de supervision/conduite de processus en temps réel. MAIA est une machine-langage spécialisée pour l'exécution de LISP et de PROLOG grâce à un jeu d'instructions spécialisé pour la manipulation de listes et du matériel spécifique pour la vérification dynamique du type des objets manipulés, pour le ramasse­ miettes et la gestion des piles d'évaluation LISP. Le logiciel comprend un compilateur et un interprète LISP et de PROLOG, un noyau temps réel multi-tâche, un ramasse-miettes basé sur l'algorithme de Moon et un gestionnaire de mémoire virtuelle<br>MAIA is a joint project between the Centre National d'Etudes des Télécommunications (CNET) at LANNION and the Compagnie Générale d'Electricité at Laboratoires de Marcoussis. MAIA is both a workstation for software development and for executing applications which need powerful syrnbolic computation and real-time supports. As far many specialized workstations, MAlAis a language-machine, both Lisp-machine and Prelog-machine, with microprogrammed support for list manipulation and memory management, hardware for dynarnic data types checking, collecter assist and Lisp stack heads. The software is made of an integrated environment based on Lisp. It includes a Lisp compiler and interpreter as well as a Prolog compiler and interpreter. The kernel system includes real-time multi-processing based on SCEPTRE, garbage-collection based on the MOON's algorithm and virtual memory management
APA, Harvard, Vancouver, ISO, and other styles
11

Hidd, Fonteles Leonardo. "Lattice vector indexing for generalized gaussian distribution : application to source coding." Nice, 2009. http://www.theses.fr/2009NICE4010.

Full text
Abstract:
Les travaux de thèse ici présentés portent une attention particulière au comptage et à l'indexage des vecteurs d'un réseau régulier de points appartenant à des surfaces multidimensionnelles de norme Lp constante. Deux approches distinctes ont été adoptées, à savoir: le comptage des vecteurs au moyen de la série téta généralisée et de l'analyse Bohr-Fourier pour des fonctions presque périodiques; l'indexage des vecteurs leaders basée sur la théorie des partitions. La première approche généralise d'une façon très élégante les divers résultats d'énumération présents dans la littérature pour des valeurs de p quelconques et pour des réseaux tels que Dn, En, Barnes-Wall, Leech. La deuxième approche a abouti à un algorithme à faible complexité de calcul et à faible coût mémoire permettant l'indexage des vecteurs du réseau Zn pour des valeurs de norme et de dimension élevées et de p quelconques. Ces travaux ont été motivés en partie par l'utilisation de la quantification vectorielle algébrique (QVA) dans le contexte de codage de source. D'après la théorie de débit-distorsion de Shannon, la quantification vectorielle tend à être plus performante que la quantification scalaire pour des vecteurs de dimension arbitrairement élevées. Ainsi, une étude de performance débit-distorsion à été menée en utilisant l'algorithme d'indexage proposé dans le cadre de la QVA avec un codeur du type code produit. Des sources de distribution Gaussienne généralisée (DGG) avec différentes valeurs de paramètres de forme p ont été codées à l'aide du schéma proposé, les résultats obtenus se sont révélés prometteurs face à des techniques de l'état de l'art. L'impact de la mutualisation de l'information dans les performances de débit-distorsion a été également évalué lorsque le schéma de codage est appliqué à des données DGG corrélées. Une approche basée sur l'analyses en composantes indépendantes (ACI) à donc été proposé afin d'améliorer les performances de codage. Le schéma de compression a été également évalué dans le cadre du codage des images 2D et des maillages 3D surfaciques apportant des résultats très encourageant. Un schéma de recherche dans une base de données image à aussi été élaboré atteignant de bons résultats grâce à l'efficacité de l'algorithme d'indexage<br>In this thesis we have being particularly interested in enumerating and indexing lattice vectors belonging to multidimensional surfaces of constant distance to the origin under the Lp metric. We developed two different approaches: vector enumeration using the generalized theta series and the Bohr-Fourier analysis for almost periodic functions; leader vector indexing based on the theory of partitions. The former one generalizes in an elegant way the different enumeration techniques we find in the literature, proposing an enumeration solution for arbitrary values of p and for different lattices such as Zn, Dn, En, Barnes-Wall, Leech. The latter approach results in an low computational complexity and memory requirement algorithm able to index Zn lattice vectors of high norms and dimensions for arbitrary values of p. The presented works have been motivated in part by the use of the lattice vector quantization (LVQ) in the source coding context. According to the Shannon's rate-distortion theory, vector quantization has the potential to achieve the optimal theoretical performance if the vector dimension is arbitrarily high. Therefore, we investigated the rate-distortion performance of the LVQ coupled to a product code encoder based on the proposed indexing technique. In order to do so we have encoded memoryless generalized Gaussian distribution (GGD) sources with different shape parameter p using the proposed scheme, the results obtained being very encouraging compared to state-of-the-art techniques. As a step forward we investigated the impact of the mutual information over the rate-distortion performance when applying the proposed encoding scheme to correlated GGD sources. As result, we developed an approach based on the independent component analysis (ICA) in order to improve the coding performances. Such compression scheme have also been applied in the context of 2D still images and 3D surface meshes yielding very competitive results. We have also elaborated an image database retrieval technique based on the proposed indexing method achieving very good speed-precision results thanks to the efficiency of the indexing algorithm
APA, Harvard, Vancouver, ISO, and other styles
12

Gutierrez, Soto Claudio. "Exploring the reuse of past search results in information retrieval." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30034/document.

Full text
Abstract:
Les recherches passées constituent pourtant une source d'information utile pour les nouveaux utilisateurs (nouvelles requêtes). En raison de l'absence de collections ad-hoc de RI, à ce jour il y a un faible intérêt de la communauté RI autour de l'utilisation des recherches passées. En effet, la plupart des collections de RI existantes sont composées de requêtes indépendantes. Ces collections ne sont pas appropriées pour évaluer les approches fondées sur les requêtes passées parce qu'elles ne comportent pas de requêtes similaires ou qu'elles ne fournissent pas de jugements de pertinence. Par conséquent, il n'est pas facile d'évaluer ce type d'approches. En outre, l'élaboration de ces collections est difficile en raison du coût et du temps élevés nécessaires. Une alternative consiste à simuler les collections. Par ailleurs, les documents pertinents de requêtes passées similaires peuvent être utilisées pour répondre à une nouvelle requête. De nombreuses contributions ont été proposées portant sur l'utilisation de techniques probabilistes pour améliorer les résultats de recherche. Des solutions simples à mettre en œuvre pour la réutilisation de résultats de recherches peuvent être proposées au travers d'algorithmes probabilistes. De plus, ce principe peut également bénéficier d'un clustering des recherches antérieures selon leurs similarités. Ainsi, dans cette thèse un cadre pour simuler des collections pour des approches basées sur les résultats de recherche passées est mis en œuvre et évalué. Quatre algorithmes probabilistes pour la réutilisation des résultats de recherches passées sont ensuite proposés et évalués. Enfin, une nouvelle mesure dans un contexte de clustering est proposée<br>Past searches provide a useful source of information for new users (new queries). Due to the lack of ad-hoc IR collections, to this date there is a weak interest of the IR community on the use of past search results. Indeed, most of the existing IR collections are composed of independent queries. These collections are not appropriate to evaluate approaches rooted in past queries because they do not gather similar queries due to the lack of relevance judgments. Therefore, there is no easy way to evaluate the convenience of these approaches. In addition, elaborating such collections is difficult due to the cost and time needed. Thus a feasible alternative is to simulate such collections. Besides, relevant documents from similar past queries could be used to answer the new query. This principle could benefit from clustering of past searches according to their similarities. Thus, in this thesis a framework to simulate ad-hoc approaches based on past search results is implemented and evaluated. Four randomized algorithms to improve precision are proposed and evaluated, finally a new measure in the clustering context is proposed
APA, Harvard, Vancouver, ISO, and other styles
13

Redi, Miriam. "Nouvelles méthodes pour la recherche sémantique et esthétique d'informations multimédia." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00866867.

Full text
Abstract:
A l'ère d'Internet, la classification informatisée des images est d'une importance cruciale pour l'utilisation efficace de l'énorme quantité de données visuelles qui sont disponibles. Mais comment les ordinateurs peuvent-ils comprendre la signification d'une image? La Recherche d'Information Multimédia (RIM) est un domaine de recherche qui vise à construire des systèmes capables de reconnaître automatiquement le contenu d'une image. D'abord, des caractéristiques de bas niveau sont extraites et regroupées en signatures visuelles compactes. Ensuite, des techniques d'apprentissage automatique construisent des modèles qui font la distinction entre les différentes catégories d'images à partir de ces signatures. Ces modèles sont finalement utilisés pour reconnaître les propriétés d'une nouvelle image. Malgré les progrès dans le domaine, ces systèmes ont des performances en général limitées. Dans cette thèse, nous concevons un ensemble de contributions originales pour chaque étape de la chaîne RIM, en explorant des techniques provenant d'une variété de domaines qui ne sont pas traditionnellement liés avec le MMIR. Par exemple, nous empruntons la notion de saillance et l'utilisons pour construire des caractéristiques de bas niveau. Nous employons la théorie des Copulae étudiée en statistique économique, pour l'agrégation des caractéristiques. Nous réutilisons la notion de pertinence graduée, populaire dans le classement des pages Web, pour la récupération visuelle. Le manuscrit détaille nos solutions novatrices et montre leur efficacité pour la catégorisation d'image et de vidéo, et l'évaluation de l'esthétique.
APA, Harvard, Vancouver, ISO, and other styles
14

Okba, Abderrahim. "Conception et réalisation de rectennas utilisées pour la récupération d'énergie électromagnétique pour l'alimentation de réseaux de capteurs sans fils." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30286/document.

Full text
Abstract:
L'électronique a connu une évolution incontestable ces dernières années. Les progrès réalisés, notamment dans l'électronique numérique et l'intégration des circuits, ont abouti à des systèmes plus performants, miniatures et à faible consommation énergétique. Les évolutions technologiques, alliant les avancées de l'informatique et des technologies numériques et leur intégration de plus en plus poussée au sein d'objets multiples, ont permis le développement d'un nouveau paradigme de systèmes qualifiés de systèmes cyber-physiques. Ces systèmes sont massivement déployés de nos jours grâce à l'expansion des applications liées à l'Internet Des Objets (IDO). Les systèmes cyber-physiques s'appuient, entre autre, sur le déploiement massif de capteurs communicants sans fil autonomes, ceux-ci présentent plusieurs avantages : * Flexibilité dans le choix de l'emplacement. Ils permettent l'accès à des zones dangereuses ou difficiles d'accès. * Affranchissement des câbles qui présentent un poids, un encombrement et un coût supplémentaire. * Elimination des problèmes relatifs aux câbles (usure, étanchéité...) * Facilité de déploiement de réseaux de capteurs Cependant, ces capteurs sans fils nécessitent une autonomie énergétique afin de fonctionner. Les techniques conventionnelles telles que les batteries ou les piles, n'assurent le fonctionnement des capteurs que pour une durée limitée et nécessitent un changement périodique. Ceci présente un obstacle dans le cas où les capteurs sans fils sont placés dans un endroit où l'accès est impossible. Il est donc nécessaire de trouver un autre moyen d'approvisionner l'énergie de façon permanente à ces réseaux de capteurs sans fil. L'intégration et la miniaturisation des systèmes électroniques ont permis la réalisation de systèmes à faible consommation, ce qui a fait apparaître d'autres techniques en termes d'apports énergétiques. Parmi ces possibilités se trouvent la récupération d'énergie électromagnétique et le transfert d'énergie sans fil (TESF). En effet, l'énergie électromagnétique est de nos jours, omniprésente sur notre planète, l'utiliser donc comme source d'énergie pour les systèmes électroniques semble être une idée plausible et réalisable. Cette thèse s'inscrit dans ce cadre, elle a pour objectif la conception et la fabrication de systèmes de récupération d'énergie électromagnétique pour l'alimentation de réseaux de capteurs sans fil. Le circuit de récupération d'énergie électromagnétique est appelé " Rectenna ", ce mot est l'association de deux entités qui sont " antenne " et " rectifier " qui désigne en anglais le " redresseur ". L'antenne permet de récupérer l'énergie électromagnétique ambiante et le redresseur la convertit en un signal continu (DC) qui servira par la suite à alimenter les capteurs sans fil. Dans ce manuscrit, plusieurs rectennas seront présentées, pour des fréquences allant des bandes GSM 868MHz, 915MHz, passant par l'UMTS à 2GHZ et WIFI à 2,45GHz, et allant jusqu'aux bandes Ku et Ka<br>The electronic domain has known a significant expansion the last decades, all the advancements made has led to the development of miniature and efficient electronic devices used in many applications such as cyber physical systems. These systems use low-power wireless sensors for: detection, monitoring and so on. The use of wireless sensors has many advantages: * The flexibility of their location, they allow the access to hazardous areas. * The realization of lighter system, less expensive and less cumbersome. * The elimination of all the problems associated to the cables (erosion, impermeability...) * The deployment of sensor arrays. Therefore, these wireless sensors need to be supplied somehow with energy to be able to function properly. The classic ways of supplying energy such as batteries have some drawbacks, they are limited in energy and must be replaced periodically, and this is not conceivable for applications where the wireless sensor is placed in hazardous places or in places where the access is impossible. So, it is necessary to find another way to permanently provide energy to these wireless sensors. The integration and miniaturization of the electronic devices has led to low power consumption systems, which opens a way to another techniques in terms of providing energy. Amongst the possibilities, we can find the Wireless Power Transfer (WPT) and Energy Harvesting (EH). In fact, the electromagnetic energy is nowadays highly available in our planet thanks to all the applications that use wireless systems. We can take advantage of this massive available quantity of energy and use it to power-up the low power wireless sensors. This thesis is incorporated within the framework of WPT and EH. Its objective is the conception and realization of electromagnetic energy harvesters called "Rectenna" in order to supply energy to low power wireless sensors. The term "rectenna" is the combination of two words: Antenna and Rectifier. The Antenna is the module that captures the electromagnetic ambient energy and converts it to a RF signal, the rectifier is the RF circuit that converts this RF signal into a continuous (DC) signal that is used to supply the wireless sensors. In this manuscript, several rectennas will be presented, for different frequencies going from the GSM frequencies (868 MHz, 915 MHz) to the Ku/Ka bands
APA, Harvard, Vancouver, ISO, and other styles
15

Varga, Liviu Octavian. "Réseaux de capteurs sans fils multi-sauts à récupération d’énergie : routage et couche liaison de bas rapport cyclique." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM064/document.

Full text
Abstract:
L’objectif de cette thèse est de développer un réseau IPv6 constitué de capteurs sans fils autonomes grâce à la récupération d’énergie, fonctionnant à faible rapport cyclique. Cette thèse s’inscrit dans un projet industriel, GreenNet, lancé par STMicroelectronics afin de se positionner sur le marché de l’Internet des Objets. La nouvelle plate-forme utilisée dans ce projet se différencie de ses concurrents par sa petite taille, ce qui implique une faible capacité de batterie. Une cellule photovoltaı̈que permet en revanche de recharger la batterie, y compris dans des conditions de luminosité faible. Pour atteindre l’autonomie, nous avons besoin que les nœuds dorment pour de très longues périodes. Par conséquent, les solutions existantes, bien que peu consommantes, ne sont pas complètement adaptées à nos besoins spécifiques.Dans cette thèse, nous proposons d’analyser les difficultés possiblement rencontrées pendant le développement d’une plate-forme à récupération d’énergie et de bas rapport cyclique. La contribution la plus importante de ce travail est de mettre en œuvre et d’évaluer le rendement de nos solutions sur des plates-formes matérielles dans des conditions très proches de la vie réelle.Une première étape du travail réalisée est la conception et l’implémentation de la norme IEEE 802.15.4 utilisant les balises pour maintenir la synchronisation. Nous choisissons le mode synchronisé car il permet aux nœuds d’atteindre des rapports cycliques aussi bas que 0,01%. La seconde étape est d’apporter le multi saut : nous proposons une optimisation du protocole de routage, ainsi qu’un contrôle d’accès par multiplexagetemporel pour les routeurs et les dispositifs afin d’éliminer les interférences.Nous allons même plus loin dans l’optimisation du temps où les nœuds sont allumés: nous proposons d’éteindre les coordinateurs avant la fin de leur période d’activité définie par le standard, lorsqu’il n’y a pas de communications. Les nœuds qui ne nécessitent pas d’envoyer des données peuvent sauter des balises et se réveiller seulement lorsqu’il est nécessaire de synchroniser les horloges, ou d’envoyer des données. Dans le même temps, nous résolvons le problème de multicast pour les nœuds qui dorment durant de longues périodes, en convertissant ces paquets en paquets unicast. Nous améliorons également le rapport cyclique de routeurs qui n’ont pas de nœuds associés en les forçant envoyer la balise moins souvent, tant qu’ils n’ont pas des nœuds associés.Pour améliorer la performance du réseau, nous proposons aussi une solution rétro compatible qui utilise plusieurs canaux. Un tel système est utile quand un lien entre deux nœuds subit de très mauvaise performance sur un certain canal fréquentiel, mais obtient de meilleurs résultats sur une fréquence différente.Toutes les solutions présentées ci-dessus, et discutées dans la dissertation ont été mises en œuvre et testées sur la plate-forme GreenNet. Nous avons également réalisé des mesures sur des nœuds pour vérifier leurs efficacité<br>The goal of the thesis is to enable IPv6 harvested and autonomous wireless sensor networks with very low duty-cycle. It is part of an industrial project, GreenNet, hosted by STMicroelectronics with the goal of being a pioneer in the Internet of Things. The new platform differentiates from its existing competitors by a small size, which implies small battery capacity. However, a photovoltaic cell is capable of recharging the battery even under low light conditions. On top of this, we aim at nodes that sleep for very long periods. Hence, the existing solutions were not completely suited for ourneeds.The thesis proposes to analyze the possible challenges that one can meet while developing a harvested low-duty cycle platform. The most important contribution of this work is that we implement and evaluate the performance of our solutions on real hardware platforms in conditions very close to real-life.In this dissertation, we first of all develop and implement a basic solution based on the IEEE 802.15.4 beacon-enabled standard. We choose the synchronized mode because it allows nodes to reach duty-cycles as low as 0.01%. A more difficult step was to bring multi-hop: we design new a routing scheme inside our network, and a time based access for routers and devices to eliminate interferences as much as possible. The routing scheme is meant to be simple and efficient.We go even further to optimize the total time the nodes are on: we proposed to shut down coordinators before their standardized end of slot when there is no communication. Devices that do not need to send data can skip beacons and only need to wake up to synchronize their clock or to send data. In the same time we solve the problem of multicast for long sleeping nodes by converting these packets into unicast traffic. We also improved the duty-cycle of routers that do no have associated devices by forcing them to beacon slower, as long as they do not have any associated devices.To improve the network performance we also propose a backward compatible multichannel solution. Such a scheme is useful when a link between two nodes achieve very bad performance on a certain channel but better results on a different frequency.All the solutions presented above and discussed in the dissertation were implemented and tested on the GreenNet platform. We also realized measurements of the nodes efficiency while in harvested conditions and showed that it is possible to handle harvested routers, when there is enough available light
APA, Harvard, Vancouver, ISO, and other styles
16

Boher, Laurent. "Etude et mise en oeuvre de récepteurs itéractifs pour systèmes MIMO." Rennes, INSA, 2008. http://www.theses.fr/2008ISAR0017.

Full text
Abstract:
Les systèmes MIMO constitués de plusieurs antennes à l'émission et à la réception offrent un gain en capacité grâce à l'exploitation de la diversité spatiale. La plupart des techniques MIMO introduisent cependant de l'interférence co-antenne qui doit être annulée pour profiter au mieux de la diversité. Les techniques itératives basées sur le principe de la turbo-égalisation permettent de traiter cette interférence mais souffrent d'une forte complexité. On étudie ici la faisabilité et la complexité de solutions itératives pour des systèmes MIMO. Tout d'abord, l'étude des solutions itératives existantes nous mène vers un détecteur à base de filtres linéaires qui offre un bon compromis performances/complexité. Ensuite, une architecture de récepteur performante est définie. On étudie notamment la réalisation des calculs matriciels du filtrage MMSE et l'ordonnancement des échanges entre détection et décodage. Enfin, une intégration sur FPGA permet d'évaluer les architectures proposées<br>MIMO systems, associating multiple antennas at transmission and reception, allow a significant gain in capacity thanks to exploitation of spatial diversity. Though they are promising, most of MIMO techniques insert co-antenna interference that must be cancelled to fully exploit the diversity of the channel. Iterative solutions based on turbo-equalization principle allow the interference to be treated but are relatively complex to implement. The aim of this thesis is to study the feasibility and the complexity of the integration of iterative receivers for MIMO systems. Firstly, an analysis of existing iterative solutions leads us to consider a MIMO detector based on linear filters that offers an interesting performance/complexity trade-off. Then, an efficient receiver architecture has been defined. We especially study the integration of matrix calculations for MMSE filtering and the scheduling of the exchanges between detection and decoding. Finally, an integration on FPGA allows the evaluation of proposed architectures
APA, Harvard, Vancouver, ISO, and other styles
17

Dudka, Andrii. "etude, optimisation et implémentation en silicium du circuit de conditionnement intelligent haute-tension pour le système de récupération électrostatique d'énergie vibratoire." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2014. http://tel.archives-ouvertes.fr/tel-01056404.

Full text
Abstract:
La récupération de l'énergie des vibrations est un concept relativement nouveau qui peut être utilisé dans l'alimentation des dispositifs embarqués de puissance à micro-échelle avec l'énergie des vibrations omniprésentes dans l'environnement. Cette thèse contribue à une étude générale des récupérateurs de l'énergie des vibrations (REV) employant des transducteurs électrostatiques. Un REV électrostatique typique se compose d'un transducteur capacitif, de l'électronique de conditionnement et d'un élément de stockage. Ce travail se concentre sur l'examen du circuit de conditionnement auto-synchrone proposé en 2006 par le MIT, qui combine la pompe de charge à base de diodes et le convertisseur DC-DC inductif de type de flyback qui est entraîné par le commutateur. Cette architecture est très prometteuse car elle élimine la commande de grille précise des transistors utilisés dans les architectures synchrones, tandis qu'un commutateur unique se met en marche rarement. Cette thèse propose une analyse théorique du circuit de conditionnement. Nous avons développé un algorithme qui par commutation appropriée de flyback implémente la stratégie de conversion d'énergie optimale en tenant compte des pertes liées à la commutation. En ajoutant une fonction de calibration, le système devient adaptatif pour les fluctuations de l'environnement. Cette étude a été validée par la modélisation comportementale.Une autre contribution consiste en la réalisation de l'algorithme proposé au niveau du circuit CMOS. Les difficultés majeures de conception étaient liées à l'exigence de haute tension et à la priorité de la conception faible puissance. Nous avons conçu un contrôleur du commutateur haute tension de faible puissance en utilisant la technologie AMS035HV. Sa consommation varie entre quelques centaines de nanowatts et quelques microwatts, en fonction de nombreux facteurs - paramètres de vibrations externes, niveaux de tension de la pompe de charge, la fréquence de la commutation de commutateur, la fréquence de la fonction de calibration, etc.Nous avons également réalisé en silicium, fabriqué et testé un commutateur à haute tension avec une nouvelle architecture de l'élévateur de tension de faible puissance. En montant sur des composants discrets de la pompe de charge et du circuit de retour et en utilisant l'interrupteur conçu, nous avons caractérisé le fonctionnement large bande haute-tension du prototype de transducteur MEMS fabriqué à côté de cette thèse à l'ESIEE Paris. Lorsque le capteur est excité par des vibrations stochastiques ayant un niveau d'accélération de 0,8 g rms distribué dans la bande 110-170 Hz, jusqu'à 0,75 µW de la puissance nette a été récupérée.
APA, Harvard, Vancouver, ISO, and other styles
18

Flouvat, Frédéric. "Vers des solutions adaptatives et génériques pour l'extraction de motifs intéressants dans les données." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2006. http://tel.archives-ouvertes.fr/tel-00844480.

Full text
Abstract:
La découverte de motifs fréquents est un des problèmes en fouille de données. Afin de mieux comprendre l'influence des données sur les algorithmes, nous présentons une étude expérimentale des jeux de données communément utilisés par la communauté. Cette étude permet d'aboutir à une nouvelle classification des données en fonction des bordures : stable et en accord avec les performances des algorithmes. Malgré le grand nombre de travaux et un cadre théorique des problèmes d'extraction de motifs intéressants, l'utilisation de ces algorithmes pour résoudre des problèmes "équivalents" est peu répandue et reste délicate. Face à ces limites, nous proposons un algorithme générique de découverte des bordures des motifs intéressants, appelé ABS (Adaptive borders Search), adaptant dynamiquement sa stratégie en fonction des données. De plus, une librairie générique de composants C++ a été proposée pour faciliter le développement de solutions logicielles pour cette famille de problèmes.
APA, Harvard, Vancouver, ISO, and other styles
19

Decouchant, Dominique. "Partage et migration de l'information dans un système réparti à objets." Phd thesis, Grenoble 1, 1987. http://tel.archives-ouvertes.fr/tel-00324431.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Aguilar, Melchior Carlos. "Les communications anonymes à faible latence." Phd thesis, INSA de Toulouse, 2006. http://tel.archives-ouvertes.fr/tel-00110313.

Full text
Abstract:
Dans ce mémoire nous proposons des systèmes de communication anonyme à faible latence. Pour cela nous étudions les performances des systèmes basés sur les primitives classiques : envoi superposé ou bourrage chiffré pour l'émission, et diffusion avec adressage implicite pour la réception, quand les groupes d'utilisateurs potentiels sont contraints à être de petite taille, peu changeants, ou localisés. Nous proposons l'utilisation des protocoles de récupération d'informations privée (ou protocoles PIR pour Private Information Retrieval) comme alternative à la diffusion avec adressage implicite, et nous étudions les systèmes en résultant. Ces systèmes permettent de réduire significativement le coût des communications, au prix d'un coût calculatoire important. Au moyen d'exemples, nous montrons que ces nouvelles solutions offrent un meilleur choix dans certaines situations, notamment pour les utilisateurs connectés au service par Internet. Dans un deuxième temps, nous mettons en avant les relations entre les différentes techniques et montrons que les systèmes basés sur les primitives classiques ne sont en fait que des instances d'une famille qui, par l'utilisation de la récupération d'informations privée, devient nombreuse et polyvalente. Ainsi, on dispose de beaucoup plus de degrés de liberté pour l'implémentation de solutions fournissant des communications anonymes dans le cadre des groupes d'utilisateurs sous contraintes.
APA, Harvard, Vancouver, ISO, and other styles
21

Martori, Adrian Jordi. "Probabilistic Models of Partial Order Enforcement in Distributed Systems." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0040/document.

Full text
Abstract:
Les systèmes distribués ont réussi à étendre la technologie de l’information à un public plus large, en termes d’emplacement et de nombre. Cependant, ces systèmes géo-répliqués doivent être évolutifs afin de répondre aux demandes toujours croissantes. De plus, le système doit pouvoir traiter les messages dans un ordre équivalent à celui de leur création afin d’éviter des effets indésirables. L’exécution suivant des ordres partiels fournit un ordonnancement d’événements que tous les nœuds suivront, ce qui permet donc le traitement des messages dans un ordre adéquat. Un système qui applique un ordre partiel simplifie le développement des applications distribuées et s’assure que l’utilisateur final n’observera pas des comportements défiant la causalité. Dans cette thèse, nous présentons des modèles statistiques pour différentes contraintes d’ordre partiel, en utilisant différentes distributions de modèles de latence. Étant donné un modèle de latence, qui donne le temps qu’il faut pour qu’un message passe d’un nœud à un autre, notre modèle s’appuie sur lui pour donner le temps supplémentaire qu’il faut pour appliquer un ordre partiel spécifique. Nous avons proposé les modèles suivants. Tout d’abord, dans une communication entre un et plusieurs nœuds, la probabilité que le message soit délivré dans tous les nœuds avant un temps donné. Deuxièmement, après la réception d’un message, la probabilité que tous les autres nœuds aient exécuté ce message avant temps donné. Troisièmement, dans une communication de un à plusieurs nœuds, la probabilité que le message soit arrivé à au moins un sous-ensemble d’entre eux avant un temps donné. Quatrièmement, l’ordre FIFO ou causal qui détermine si un message est prêt à être livré, dans un nœud ou plusieurs. Tout cela favorise la compréhension du comportement des systèmes distribués en présence d’ordres partiels. En outre, en utilisant cette connaissance, nous avons construit un algorithme qui utilise ces modèles de comportement du réseau pour établir un système de livraison causal fiable. Afin de valider nos modèles, nous avons développé un outil de simulation qui permet d’exécuter des scénarios adaptés à nos besoins. Nous pouvons définir les différents paramètres du modèle de latence, le nombre de clients et les charges de travail des clients. Cette simulation nous permet de comparer les valeurs générées de façon aléatoire pour chaque configuration spécifique avec les résultats prévus de notre modèle. Une des applications qui peuvent tirer profit de notre modèle, est un algorithme de livraison causale fiable. Il utilise l’information causale pour détecter les éléments manquants et réduit le besoin d’acquittement de message en contactant d’autres répliques seulement lorsque le message est supposé manquant. Cette information est fournie par notre modèle, qui définit les temporisateurs d’attente en fonction des statistiques du réseau et de la consommation des ressources. Enfin, cette application a été testée dans le même simulateur que les modèles, avec des résultats prometteurs, puis évaluée dans une expérience réelle utilisant Amazon EC2 comme plate-forme<br>Distributed systems have managed to extend technology to a broader audience, in both terms of location and numbers. However these geo-replicated systems need to be scalable in order to meet the ever growing demands. Moreover, the system has to be able to process messages in an equivalent order that they were created to avoid unwanted side effects. Partial order enforcement provides an ordering of events that all nodes will follow therefore processing the messages in an adequate order. A system that enforces a partial order simplifies the challenge of developing distributed applications, and ensures that the end-user will not observe causality defying behaviors. In this thesis we present models for different partial order enforcements, using different latency model distributions. While a latency model, which yields the time it takes for a message to go from one node to another, our model builds on it to give the additional time that it takes to enforce a given partial order. We have proposed the following models. First, in a one to many nodes communication, the probability for the message to be delivered in all the nodes before a given time. Second, in a one to many nodes communication from the receivers, the probability that all the other nodes have delivered the message after a given time of him receiving it. Third, in a one to many nodes communication, the probability that the message has arrived to at least a subset of them before a given time. Fourth, applying either FIFO or Causal ordering determining if a message is ready for being delivered, in one node or many. All of this furthers the understanding of how distributed systems with partial orders behave. Furthermore using this knowledge we have built an algorithm that uses the insight of network behavior to provide a reliable causal delivery system. In order to validate our models, we developed a simulation tool that allows to run scenarios tailored to our needs. We can define the different parameters of the latency model, the number of clients, and the clients workloads. This simulation allows us to compare the randomly generated values for each specific configuration with the predicted outcome from our model. One of the applications that can take advantage of our model, is a reliable causal delivery algorithm. It uses causal information to detect missing elements and removes the need of message acknowledgment by contacting other replicas only when the message is assumed missing. This information is provided by our model, that defines waiting timers according to the network statistics and resource consumption. Finally this application has been both tested in the same simulator as the models, with promising results, and then evaluated in a real-life experiment using Amazon EC2 for the platform
APA, Harvard, Vancouver, ISO, and other styles
22

Kopliku, Arlind. "Approaches to implement and evaluate aggregated search." Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1535/.

Full text
Abstract:
La recherche d'information agrégée peut être vue comme un troisième paradigme de recherche d'information après la recherche d'information ordonnée (ranked retrieval) et la recherche d'information booléenne (boolean retrieval). Les deux paradigmes les plus explorés jusqu'à aujourd'hui retournent un ensemble ou une liste ordonnée de résultats. C'est à l'usager de parcourir ces ensembles/listes et d'en extraire l'information nécessaire qui peut se retrouver dans plusieurs documents. De manière alternative, la recherche d'information agrégée ne s'intéresse pas seulement à l'identification des granules (nuggets) d'information pertinents, mais aussi à l'assemblage d'une réponse agrégée contenant plusieurs éléments. Dans nos travaux, nous analysons les travaux liés à la recherche d'information agrégée selon un schéma général qui comprend 3 parties: dispatching de la requête, recherche de granules d'information et agrégation du résultat. Les approches existantes sont groupées autours de plusieurs perspectives générales telle que la recherche relationnelle, la recherche fédérée, la génération automatique de texte, etc. Ensuite, nous nous sommes focalisés sur deux pistes de recherche selon nous les plus prometteuses: (i) la recherche agrégée relationnelle et (ii) la recherche agrégée inter-verticale. * La recherche agrégée relationnelle s'intéresse aux relations entre les granules d'information pertinents qui servent à assembler la réponse agrégée. En particulier, nous nous sommes intéressés à trois types de requêtes notamment: requête attribut (ex. Président de la France, PIB de l'Italie, maire de Glasgow,. . . ), requête instance (ex. France, Italie, Glasgow, Nokia e72,. . . ) et requête classe (pays, ville française, portable Nokia,. . . ). Pour ces requêtes qu'on appelle requêtes relationnelles nous avons proposés trois approches pour permettre la recherche de relations et l'assemblage des résultats. Nous avons d'abord mis l'accent sur la recherche d'attributs qui peut aider à répondre aux trois types de requêtes. Nous proposons une approche à large échelle capable de répondre à des nombreuses requêtes indépendamment de la classe d'appartenance. Cette approche permet l'extraction des attributs à partir des tables HTML en tenant compte de la qualité des tables et de la pertinence des attributs. Les différentes évaluations de performances effectuées prouvent son efficacité qui dépasse les méthodes de l'état de l'art. Deuxièmement, nous avons traité l'agrégation des résultats composés d'instances et d'attributs. Ce problème est intéressant pour répondre à des requêtes de type classe avec une table contenant des instances (lignes) et des attributs (colonnes). Pour garantir la qualité du résultat, nous proposons des pondérations sur les instances et les attributs promouvant ainsi les plus représentatifs. Le troisième problème traité concerne les instances de la même classe (ex. France, Italie, Allemagne,. . . ). Nous proposons une approche capable d'identifier massivement ces instances en exploitant les listes HTML. Toutes les approches proposées fonctionnent à l'échelle Web et sont importantes et complémentaires pour la recherche agrégée relationnelle. Enfin, nous proposons 4 prototypes d'application de recherche agrégée relationnelle. Ces derniers peuvent répondre des types de requêtes différents avec des résultats relationnels. Plus précisément, ils recherchent et assemblent des attributs, des instances, mais aussi des passages et des images dans des résultats agrégés. Un exemple est la requête ``Nokia e72" dont la réponse sera composée d'attributs (ex. Prix, poids, autonomie batterie,. . . ), de passages (ex. Description, reviews,. . . ) et d'images. Les résultats sont encourageants et illustrent l'utilité de la recherche agrégée relationnelle. * La recherche agrégée inter-verticale s'appuie sur plusieurs moteurs de recherche dits verticaux tel que la recherche d'image, recherche vidéo, recherche Web traditionnelle, etc. Son but principal est d'assembler des résultats provenant de toutes ces sources dans une même interface pour répondre aux besoins des utilisateurs. Les moteurs de recherche majeurs et la communauté scientifique nous offrent déjà une série d'approches. Notre contribution consiste en une étude sur l'évaluation et les avantages de ce paradigme. Plus précisément, nous comparons 4 types d'études qui simulent des situations de recherche sur un total de 100 requêtes et 9 sources différentes. Avec cette étude, nous avons identifiés clairement des avantages de la recherche agrégée inter-verticale et nous avons pu déduire de nombreux enjeux sur son évaluation. En particulier, l'évaluation traditionnelle utilisée en RI, certes la moins rapide, reste la plus réaliste. Pour conclure, nous avons proposé des différents approches et études sur deux pistes prometteuses de recherche dans le cadre de la recherche d'information agrégée. D'une côté, nous avons traité trois problèmes importants de la recherche agrégée relationnelle qui ont porté à la construction de 4 prototypes d'application avec des résultats encourageants. De l'autre côté, nous avons mis en place 4 études sur l'intérêt et l'évaluation de la recherche agrégée inter-verticale qui ont permis d'identifier les enjeux d'évaluation et les avantages du paradigme. Comme suite à long terme de ce travail, nous pouvons envisager une recherche d'information qui intègre plus de granules relationnels et plus de multimédia<br>Aggregated search or aggregated retrieval can be seen as a third paradigm for information retrieval following the Boolean retrieval paradigm and the ranked retrieval paradigm. In the first two, we are returned respectively sets and ranked lists of search results. It is up to the time-poor user to scroll this set/list, scan within different documents and assemble his/her information need. Alternatively, aggregated search not only aims the identification of relevant information nuggets, but also the assembly of these nuggets into a coherent answer. In this work, we present at first an analysis of related work to aggregated search which is analyzed with a general framework composed of three steps: query dispatching, nugget retrieval and result aggregation. Existing work is listed aside different related domains such as relational search, federated search, question answering, natural language generation, etc. Within the possible research directions, we have then focused on two directions we believe promise the most namely: relational aggregated search and cross-vertical aggregated search. * Relational aggregated search targets relevant information, but also relations between relevant information nuggets which are to be used to assemble reasonably the final answer. In particular, there are three types of queries which would easily benefit from this paradigm: attribute queries (e. G. President of France, GDP of Italy, major of Glasgow,. . . ), instance queries (e. G. France, Italy, Glasgow, Nokia e72,. . . ) and class queries (countries, French cities, Nokia mobile phones,. . . ). We call these queries as relational queries and we tackle with three important problems concerning the information retrieval and aggregation for these types of queries. First, we propose an attribute retrieval approach after arguing that attribute retrieval is one of the crucial problems to be solved. Our approach relies on the HTML tables in the Web. It is capable to identify useful and relevant tables which are used to extract relevant attributes for whatever queries. The different experimental results show that our approach is effective, it can answer many queries with high coverage and it outperforms state of the art techniques. Second, we deal with result aggregation where we are given relevant instances and attributes for a given query. The problem is particularly interesting for class queries where the final answer will be a table with many instances and attributes. To guarantee the quality of the aggregated result, we propose the use of different weights on instances and attributes to promote the most representative and important ones. The third problem we deal with concerns instances of the same class (e. G. France, Germany, Italy. . . Are all instances of the same class). Here, we propose an approach that can massively extract instances of the same class from HTML lists in the Web. All proposed approaches are applicable at Web-scale and they can play an important role for relational aggregated search. Finally, we propose 4 different prototype applications for relational aggregated search. They can answer different types of queries with relevant and relational information. Precisely, we not only retrieve attributes and their values, but also passages and images which are assembled into a final focused answer. An example is the query ``Nokia e72" which will be answered with attributes (e. G. Price, weight, battery life. . . ), passages (e. G. Description, reviews. . . ) and images. Results are encouraging and they illustrate the utility of relational aggregated search. * The second research direction that we pursued concerns cross-vertical aggregated search, which consists of assembling results from different vertical search engines (e. G. Image search, video search, traditional Web search,. . . ) into one single interface. Here, different approaches exist in both research and industry. Our contribution concerns mostly evaluation and the interest (advantages) of this paradigm. We propose 4 different studies which simulate different search situations. Each study is tested with 100 different queries and 9 vertical sources. Here, we could clearly identify new advantages of this paradigm and we could identify different issues with evaluation setups. In particular, we observe that traditional information retrieval evaluation is not the fastest but it remains the most realistic. To conclude, we propose different studies with respect to two promising research directions. On one hand, we deal with three important problems of relational aggregated search following with real prototype applications with encouraging results. On the other hand, we have investigated on the interest and evaluation of cross-vertical aggregated search. Here, we could clearly identify some of the advantages and evaluation issues. In a long term perspective, we foresee a possible combination of these two kinds of approaches to provide relational and cross-vertical information retrieval incorporating more focus, structure and multimedia in search results
APA, Harvard, Vancouver, ISO, and other styles
23

Durou, Hugo. "Vers l'autonomie énergétique des réseaux de capteurs embarqués : conception et intégration d'un générateur piézoélectrique et d'un micro dispositif de stockage capacitif en technologie silicium." Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00578741.

Full text
Abstract:
Les réseaux de capteurs communiquant sans fil offrent des possibilités extrêmement intéressantes pour l'application de surveillance de santé de structures, et particulièrement dans le secteur aéronautique. Cependant les capteurs qui constituent chaque noeud du réseau ne disposent pas de ressources énergétiques permanentes et leur autonomie énergétique sur de longues périodes est un problème. Avec la réduction de la consommation des composants électroniques et des capteurs, une solution possible et explorée depuis une dizaine d'années par nombreuses équipes consiste à récupérer l'énergie disponible dans son environnement, de la stocker et la gérer pour alimenter le capteur. Nous proposons dans cette thèse d'exploiter le potentiel énergétique des vibrations mécaniques d'une structure aéronautique pour alimenter un capteur de surveillance de santé de structure aéronautique. Notre contribution porte sur la conception et l'intégration sur silicium d'un générateur piézoélectrique miniature et d'un micro dispositif de stockage capacitif. Concernant le générateur piézoélectrique, l'élaboration d'un modèle à éléments finis (COMSOL) couplées avec une description SPICE du circuit de charge, a permis de concevoir - une structure optimisée consistant en 4 poutres monomorphes (Si/PZT) capable de générer des puissance électrique > ?W et des tension > V en dépit de puissance mécaniques incidentes faibles : vibrations de 0,1g-0,5g @40-80 Hz. Ce dispositif a ensuite été réalisé sur silicium à l'aide de technologies MEMS et de l'usinage laser femtoseconde. Le dispositif de stockage conçu et intégré sur silicium est un condensateur à double couche électrochimique. Les différentes briques technologiques développées concernent l'optimisation des géométries d'électrodes, le dépôt de la matière active et l'encapsulation hermétique de l'électrolyte organique en atmosphère anhydre. Un modèle VHDL-AMS des deux éléments (récupérateur et stockage) réalisés est proposé et une simulation du systè me sur un cas d'utilisation simple est comparée à l'expérience.
APA, Harvard, Vancouver, ISO, and other styles
24

Courdouan, Elie. "Développement d'un module BMS multi-sources harvesting." Electronic Thesis or Diss., Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0633.

Full text
Abstract:
Avec le développement des applications mobiles (téléphonie, IoT, domotique, …), les systèmes embarqués ont montré une croissance exponentielle ces dernières années. Or la principale caractéristique de ces nouveaux systèmes est la combinaison d’une puissance de calcul importante avec une grande autonomie de fonctionnement. Malheureusement, ces caractéristiques étant diamétralement opposées, les concepteurs de systèmes se heurtent à un dilemme leur imposant de limiter la puissance embarquée. Afin de pallier ce problème d'autonomie, de plus en plus d'architectures se tournent vers la mise en place d'étages de récupération d'énergie depuis une ou plusieurs sources. Dans le cadre d'une thèse CIFRE, l'étude a ainsi été portée sur la conception d'un module de récupération d'énergie optimisé s'interfaçant sur plusieurs sources. Deux directions ont ainsi été trouvées afin d'augmenter la quantité récupérée par un tel dispositif :- Le développement de l'approche multisources afin de proposer une architecture industrialisable.- L'optimisation des quantités d'énergie extraites de chaque source par l'intermédiaire d'algorithmes nouvelle génération permettant la recherche du point de fonctionnement maximum. Ces derniers sont ainsi optimisés grâce aux progrès réalisés récemment dans le domaine du Deep Learning et la commercialisation de microcontrôleurs à faible puissance de plus en plus performants. L’objectif final étant de déployer des réseaux de capteurs à grande échelle et faible coût, dont l’autonomie est améliorée voire infinie si le système parvient à produire plus d’énergie que ce qu’il consomme<br>With the development of mobile applications, such as telecoms, IoT and home automation, embedded systems have shown an exponential growth over the past years. The main characteristic of these newly build systems is to combine high processing capabilities and extended operational autonomy. Unfortunately, these parameters are fundamentally opposed and hardware designer facing this issue by limiting processing capability to ensure enough autonomy. To solve this autonomy problem, newly architectures choose to implement an energy harvesting stage with one or more sources. As part of this industrial thesis, the study has been carried out on the design of an optimized energy harvesting module using one or more sources. Two directions were found to increase the quantity of harvested energy: - Interfacing multiple harvester from complementary source in an industrialized architecture - Optimization of produced energy from each source by using next-generation algorithms of Maximum Power Point Tracking. These algorithms are optimized thanks to technical advances made in the field of Deep Learning and the availability of more efficient low power microcontroller. The final goal of this study is to deploy a low cost wide area network of sensors with enhanced or infinite autonomy
APA, Harvard, Vancouver, ISO, and other styles
25

Pere-Laperne, Jacques. "La restructuration des documents graphiques destructurés." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0226/document.

Full text
Abstract:
Cette thèse traite de la restructuration des documents déstructurés de type PDF contenant des éléments graphiques tels que les schémas, les plans et les dessins, dans l’objectif de les restructurer. En nous appuyant sur la méthode KDD (Knowledge Discovery in Database) pour la restructuration des données, nous introduisons la méthode (A)KDD (Antropocentric Knowledge Discovery in Database) que nous avons développé et qui est dérivée de la méthode KDD en ajoutant l’aspect incrémental et l’aspect centré sur l’utilisateur. Nous présentons, en particulier, une technique fondée sur le principe du tri par paquet pour extraire efficacement les symboles graphiques contenus dans un document PDF. Elle est comparée aux résultats de Puglissi sur les chaînes de caractères. Puis, nous formulons l’hypothèse selon laquelle la prise en compte de l’ordre chronologique présent dans les fichiers PDF dans le processus incrémental améliore la restructuration des documents. Nous montrons la validité de cette hypothèse sur un certain nombre d’exemples. Enfin, nous montrons l’efficacité du processus pour identifier les symboles en même temps que les équipotentielles. Le mémoire se conclut en montrant les avancées et les limites de la solution de la méthode (A)KDD et nous proposons des perspectives<br>This thesis deals with the restructuring of unstructured PDF documents containing graphical elements such as schematics, plans and drawings, with the aim of restructuring them. Using the KDD (Knowledge Discovery in Database) method for data restructuring, we introduce the (A) KDD (Antropocentric Knowledge Discovery in Database) method that we developed which is derived from the KDD method by adding an incremental aspect and an user-centered approach. We present, in particular, a technique based on on the bucket sort algorithm pattern in order to extract with efficiency graphic symbols contained in a PDF file. It is compared to the results obtained by Puglissi on strings. Then, we formulate the hypothesis:”taking into account the chronological order present in the PDF files in the incremental process improves the restructuring of the documents”. We illustrate the validity of this hypothesis on several examples. Finally, we show the efficiency of the process in the identification of the symbols at the same time as the equipotentials. The thesis concludes by showing the advances and the limits of the solution of the (A) KDD method and we propose some perspectives
APA, Harvard, Vancouver, ISO, and other styles
26

Cassar, Quentin. "Terahertz radiations for breast tumour recognition." Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0032.

Full text
Abstract:
La faible précision avec laquelle sont délimitées les marges d'exérèse des adénocarcinomes mammaires se traduit par un recours régulier à un second acte chirurgical. Afin d'en limiter la fréquence, la communauté scientifique tente de définir les grands axes de conception d'un système intraopératif permettant la reconnaissance des lésions mammaires malines. Ce manuscrit de thèse rapporte les investigations menées sur la capacité des ondes térahertz à fournir un contraste entre tissus mammaires sains et malins. Les premiers travaux ont montré l'existence d'un contraste sur l'indice de réfraction entre 300 GHz et 1 THz, évalué en moyenne à 8%. Ce dît contraste semble prendre origine dans la dynamique des molécules d'eau intrinsèques aux cellules cancéreuses. Différentes techniques de segmentation d'image, basées sur l'indice de réfraction des zones tissulaires, ont permis de rapporter une sensibilité au cancer jusqu'à 80% tout en maintenant un taux de spécificité de l'ordre de 82%. L'ensemble de ces études a guidé la conception d'un imageur champ-proche opérant à 560 GHz, dont la réponse des différents senseurs est sensible à la permittivité en surface des tissus du sein<br>The failure to accurately delineate breast tumor margins during breast conserving surgeries results in a 20% re-excision rate. Consequently, there is a clear need for an operating room device that can precisely define intraoperatively breast tumor margins in a simple, fast, and inexpensive manner. This manuscript reports investigations that were conducted towards the ability of terahertz radiations to recognize breast malignant lesions among freshly excised breast volumes. Preliminary works on terahertz far-field spectroscopy have highlighted the existence of a contrast between healthy fibrous tissues and breast tumors by about 8% in refractive index over a spectral window spanning from 300 GHz to 1 THz. The origin for contrast was explored. Results seem to indicate that the dynamics of quasi-free water molecules may be a key factor for demarcation. On these basis, different methods for tissue segmentation based on refractive index map were investigated. A cancer sensitivity of 80% was reported while preserving a specificity of 82%. Eventually, these pilot studies have guided the design of a BiCMOS-compatible near-field resonator-based imager operating at 560 GHz and sensitive to permittivity changes over breast tissue surface
APA, Harvard, Vancouver, ISO, and other styles
27

Le, Viet Phuong. "Logo detection, recognition and spotting in context by matching local visual features." Thesis, La Rochelle, 2015. http://www.theses.fr/2015LAROS029/document.

Full text
Abstract:
Cette thèse présente un framework pour le logo spotting appliqué à repérer les logos à partir de l’image des documents en se concentrant sur la catégorisation de documents et les problèmes de récupération de documents. Nous présentons également trois méthodes de matching par point clé : le point clé simple avec le plus proche voisin, le matching par règle des deux voisins les plus proches et le matching par deux descripteurs locaux à différents étapes de matching. Les deux derniers procédés sont des améliorations de la première méthode. En outre, utiliser la méthode de classification basée sur la densité pour regrouper les correspondances dans le framework proposé peut aider non seulement à segmenter la région candidate du logo mais également à rejeter les correspondances incorrectes comme des valeurs aberrantes. En outre, afin de maximiser la performance et de localiser les logos, un algorithme à deux étages a été proposé pour la vérification géométrique basée sur l’homographie avec RANSAC. Comme les approches fondées sur le point clé supposent des approches coûteuses, nous avons également investi dans l’optimisation de notre framework. Les problèmes de séparation de texte/graphique sont étudiés. Nous proposons une méthode de segmentation de texte et non-texte dans les images de documents basée sur un ensemble de fonctionnalités puissantes de composants connectés. Nous avons appliqué les techniques de réduction de dimensionnalité pour réduire le vecteur de descripteurs locaux de grande dimension et rapprocher les algorithmes de recherche du voisin le plus proche pour optimiser le framework. En outre, nous avons également mené des expériences pour un système de récupération de documents sur les documents texte et non-texte segmentés et l'algorithme ANN. Les résultats montrent que le temps de calcul du système diminue brusquement de 56% tandis que la précision diminue légèrement de près de 2,5%. Dans l'ensemble, nous avons proposé une approche efficace et efficiente pour résoudre le problème de spotting des logos dans les images de documents. Nous avons conçu notre approche pour être flexible pour des futures améliorations. Nous croyons que notre travail peut être considéré comme une étape sur la voie pour résoudre le problème de l’analyse complète et la compréhension des images de documents<br>This thesis presents a logo spotting framework applied to spotting logo images on document images and focused on document categorization and document retrieval problems. We also present three key-point matching methods: simple key-point matching with nearest neighbor, matching by 2-nearest neighbor matching rule method and matching by two local descriptors at different matching stages. The last two matching methods are improvements of the first method. In addition, using a density-based clustering method to group the matches in our proposed spotting framework can help not only segment the candidate logo region but also reject the incorrect matches as outliers. Moreover, to maximize the performance and to locate logos, an algorithm with two stages is proposed for geometric verification based on homography with RANSAC. Since key-point-based approaches assume costly approaches, we have also invested to optimize our proposed framework. The problems of text/graphics separation are studied. We propose a method for segmenting text and non-text in document images based on a set of powerful connected component features. We applied dimensionality reduction techniques to reduce the high dimensional vector of local descriptors and approximate nearest neighbor search algorithms to optimize our proposed framework. In addition, we have also conducted experiments for a document retrieval system on the text and non-text segmented documents and ANN algorithm. The results show that the computation time of the system decreases sharply by 56% while its accuracy decreases slightly by nearly 2.5%. Overall, we have proposed an effective and efficient approach for solving the problem of logo spotting in document images. We have designed our approach to be flexible for future improvements by us and by other researchers. We believe that our work could be considered as a step in the direction of solving the problem of complete analysis and understanding of document images
APA, Harvard, Vancouver, ISO, and other styles
28

Ta, Quang-Chieu. "Matheuristic algorithms for minimizing total tardiness in flow shop scheduling problems." Thesis, Tours, 2015. http://www.theses.fr/2015TOUR4002/document.

Full text
Abstract:
Nous considérons dans cette thèse un problème d’ordonnancement de flow-shop de permutation où un ensemble de travaux doit être ordonnancé sur un ensemble de machines. Les travaux doivent être ordonnancés sur les machines dans le même ordre. L’objectif est de minimiser le retard total. Nous proposons des algorithmes heuristiques et des nouvelles matheuristiques pour ce problème. Les matheuristiques sont un nouveau type d’algorithmes approchés qui ont été proposés pour résoudre des problèmes d’optimisation combinatoire. Les méthodes importent de la résolution exacte au sein des approches (méta) heuristiques. Ce type de méthode de résolution a reçu un grand intérêt en raison de leurs très bonnes performances pour résoudre des problèmes difficiles. Nous présentons d’abord les concepts de base d’un problème d’ordonnancement. Nous donnons aussi une brève introduction à la théorie de l’ordonnancement et nous présentons un panel de méthodes de résolution. Enfin, nous considérons un problème où un flow shop de permutation à m-machine et un problème de tournées de véhicules sont intégrés, avec pour objectif la minimisation de la somme des retards. Nous proposons un codage direct d’une solution et une méthode de voisinage. Les résultats montrent que l’algorithme Tabou améliore grandement la solution initiale donnée par EDD et où chaque voyage ne délivre qu’un travail<br>We consider in this thesis a permutation flow shop scheduling problem where a set of jobs have to be scheduled on a set of machines. The jobs have to be processed on the machines in the same order. The objective is to minimize the total tardiness. We propose heuristic algorithms and many new matheuristic algorithms for this problem. The matheuristic methods are a new type of approximated algorithms that have been proposed for solving combinatorial optimization problems. These methods embed exact resolution into (meta)heuristic approaches. This type of resolution method has received a great interest because of their very good performances for solving some difficult problems. We present the basic concepts and components of a scheduling problem and the aspects related to these components. We also give a brief introduction to the theory of scheduling and present an overview of resolution methods. Finally, we consider a problem where m-machine permutation flow shop scheduling problem and a vehicle routing problem are integrated and the objective is to minimize the total tardiness. We introduce a direct coding for a complete solution and a Tabu search for finding a sequence and trips. The results show that the TS greatly improves the initial solution given by EDD heuristic where each trip serves only one job at a time
APA, Harvard, Vancouver, ISO, and other styles
29

Thonet, Thibaut. "Modèles thématiques pour la découverte non supervisée de points de vue sur le Web." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30167/document.

Full text
Abstract:
Les plateformes en ligne telles que les blogs et les réseaux sociaux permettent aux internautes de s'exprimer sur des sujets d'une grande variété (produits commerciaux, politique, services, etc.). Cet important volume de données d'opinions peut être exploré et exploité grâce à des techniques de fouille de texte connues sous le nom de fouille d'opinions ou analyse de sentiments. Contrairement à la majorité des travaux actuels en fouille d'opinions, qui se focalisent sur les opinions simplement positives ou négatives (ou un intermédiaire entre ces deux extrêmes), nous nous intéressons dans cette thèse aux points de vue. La fouille de point de vue généralise l'opinion au delà de son acception usuelle liée à la polarité (positive ou négative) et permet l'étude d'opinions exprimées plus subtilement, telles que les opinions politiques. Nous proposons dans cette thèse des approches non supervisées - ne nécessitant aucune annotation préalable - basées sur des modèles thématiques probabilistes afin de découvrir simultanément les thèmes et les points de vue exprimés dans des corpus de textes d'opinion. Dans notre première contribution, nous avons exploré l'idée de différencier mots d'opinions (spécifiques à la fois à un point de vue et à un thème) et mots thématiques (dépendants du thème mais neutres vis-à-vis des différents points de vue) en nous basant sur les parties de discours, inspirée par des pratiques similaires dans la littérature de fouille d'opinions classique - restreinte aux opinions positives et négatives. Notre seconde contribution se focalise quant à elle sur les points de vue exprimés sur les réseaux sociaux. Notre objectif est ici d'analyser dans quelle mesure l'utilisation des interactions entre utilisateurs, en outre de leur contenu textuel généré, est bénéfique à l'identification de leurs points de vue. Nos différentes contributions ont été évaluées et comparées à l'état de l'art sur des collections de documents réels<br>The advent of online platforms such as weblogs and social networking sites provided Internet users with an unprecedented means to express their opinions on a wide range of topics, including policy and commercial products. This large volume of opinionated data can be explored and exploited through text mining techniques known as opinion mining or sentiment analysis. Contrarily to traditional opinion mining work which mostly focuses on positive and negative opinions (or an intermediate in-between), we study a more challenging type of opinions: viewpoints. Viewpoint mining reaches beyond polarity-based opinions (positive/negative) and enables the analysis of more subtle opinions such as political opinions. In this thesis, we proposed unsupervised approaches – i.e., approaches which do not require any labeled data – based on probabilistic topic models to jointly discover topics and viewpoints expressed in opinionated data. In our first contribution, we explored the idea of separating opinion words (specific to both viewpoints and topics) from topical, neutral words based on parts of speech, inspired by similar practices in the litterature of non viewpoint-related opinion mining. Our second contribution tackles viewpoints expressed by social network users. We aimed to study to what extent social interactions between users – in addition to text content – can be beneficial to identify users' viewpoints. Our different contributions were evaluated and benchmarked against state-of-the-art baselines on real-world datasets
APA, Harvard, Vancouver, ISO, and other styles
30

Lupinetti, Katia. "Identification of shape and structural characteristics in assembly models for retrieval applications." Thesis, Paris, ENSAM, 2018. http://www.theses.fr/2018ENAM0003/document.

Full text
Abstract:
Au cours des dernières années, innombrables produits ont été conçus en utilisant des modèles numériques 3D, où les courants logiciels pour la conception et le dessin technique utilisent des modèles CAO (Conception Assistée par Ordinateur). Ces logiciels sont utilisés dans de nombreux domaines, tels que l'automobile, la marine, l'aérospatiale et plus encore. À l'intérieur de d'une entreprise qui utilise ces systèmes, il est possible d'avoir accès à des modèles CAO de produits déjà développés puisque la conception de nouveaux produits fait souvent référence à des modèles existants depuis que produits similaires permettent à l'avance la connaissance des éventuels problèmes et leur solutions. Par conséquent, il est utile de disposer de solutions technologiques capables d'évaluer les similitudes de différents produits afin que l'utilisateur puisse récupérer des modèles existants et avoir ainsi accès à des informations utiles pour la nouvelle conception.Le concept de similarité a été largement étudié dans la littérature et il est bien connu que deus objets puissent être similaire de plusieurs façons. Ces multiples possibilités rendent complexe l'évaluation de la similarité entre deux objets. À ce jour, de nombreuses méthodes ont été proposées pour l’identification de différentes similitudes entre les pièces, mais peu de travaux abordent cet problème en évoquant d’assemblages de pièces. Si l’évaluation de la similarité entre deux pièces a beaucoup de points de vue, quand on va examiner des assemblages de pièces, les combinaisons de similarité augmentent vertigineusement puisqu'il y a plus de facteurs à considérer.Sur la base de ces exigences, nous proposons de définir un système qui permettant la récupération des assemblages des pièces similaires en fonction de multiple critères de similarité. Pour ce faire, il faut avoir un descripteur qui peut gérer les informations nécessaires pour caractériser les différentes similitudes entre les deux modèles. Par conséquent, l'un des points principaux de ce travail sera la définition d'un descripteur capable de coder les données nécessaires à l'évaluation des similarités. De plus, certaines des informations du descripteur peuvent être disponibles dans le modèle CAO, tandis que d'autres devront être extraites de manière appropriée. Par conséquent, des algorithmes seront proposés pour extraire les informations nécessaires pour remplir les champs du descripteur. Enfin, pour une évaluation de la similarité, plusieurs mesures entre les modèles seront définies, de sorte que chacune d'entre elles évaluent un aspect particulier de leur similarité<br>The large use of CAD systems in many industrial fields, such as automotive, naval, and aerospace, has generated a number of 3D databases making available a lot of 3D digital models. Within enterprises, which make use of these technologies, it is common practice to access to CAD models of previously developed products. In fact, designing new products often refers to existing models since similar products allow knowing in advance common problems and related solutions. Therefore, it is useful to have technological solutions that are able to evaluate the similarities of different products in such a way that the user can retrieve existing models and thus have access to the associated useful information for the new design.The concept of similarity has been widely studied in literature and it is well known that two objects can be similar under different perspectives. These multiple possibilities make complicate the assessment of the similarity between two objects. So far, many methods are proposed for the recognition of different parts similarities, but few researches address this problem for assembly models. If evaluating the similarity between two parts may be done under different perspectives, considering assemblies, the viewpoints increase considerably since there are more elements playing a meaningful role.Based on these requirements, we propose a system for retrieving similar assemblies according to different similarity criteria. To achieve this goal, it is necessary having an assembly description including all the information required for the characterizations of the possible different similarity criteria between the two assemblies. Therefore, one of the main topics of this work is the definition of a descriptor capable of encoding the data needed for the evaluation of similarity adaptable to different objectives. In addition, some of the information included in the descriptor may be available in CAD models, while other has to be extracted appropriately. Therefore, algorithms are proposed for extracting the necessary information to fill out the descriptor elements. Finally, for the evaluation of assembly similarity, several measures are defined, each of them evaluating a specific aspect of their similarity
APA, Harvard, Vancouver, ISO, and other styles
31

Davidoiu, Valentina. "Approches non linéaire en imagerie de phase par rayons X dans le domaine de Fresnel." Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00952854.

Full text
Abstract:
Le développement de sources cohérentes de rayons X offre de nouvelles possibilités pour visualiser les structures biologiques à différentes échelles en exploitant la réfraction des rayons X. La cohérence des sources synchrotron de troisième génération permettent des implémentations efficaces des techniques de contraste de phase. Une des premières mesures des variations d'intensité dues au contraste de phase a été réalisée en 1995 à l'Installation Européenne de Rayonnement Synchrotron (ESRF). L'imagerie de phase couplée à l'acquisition tomographique permet une imagerie tridimensionnelle avec une sensibilité accrue par rapport à la tomographie standard basée sur absorption. Cette technique est particulièrement adaptée pour les échantillons faiblement absorbante ou bien présentent des faibles différences d'absorption. Le contraste de phase a ainsi une large gamme d'applications, allant de la science des matériaux, à la paléontologie, en passant par la médecine et par la biologie. Plusieurs techniques de contraste de phase aux rayons X ont été proposées au cours des dernières années. Dans la méthode de contraste de phase basée sur le phénomène de propagation l'intensité est mesurée pour différentes distances de propagation obtenues en déplaçant le détecteur. Bien que l'intensité diffractée puisse être acquise et enregistrée, les informations de phase du signal doivent être "récupérées" à partir seulement du module des données mesurées. L'estimation de la phase est donc un problème inverse non linéaire mal posé et une connaissance a priori est nécessaire pour obtenir des solutions stables. Si la plupart de méthodes d'estimation de phase reposent sur une linéarisation du problème inverse, les traitements non linéaires ont été très peu étudiés. Le but de ce travail était de proposer et d'évaluer des nouveaux algorithmes, prenant en particulier en compte la non linéarité du problème direct. Dans la première partie de ce travail, nous présentons un schéma de type Landweber non linéaire itératif pour résoudre le problème de la récupération de phase. Cette approche utilise l'expression analytique de la dérivée de Fréchet de la relation phase-intensité et de son adjoint. Nous étudions aussi l'effet des opérateurs de projection sur les propriétés de convergence de la méthode. Dans la deuxième partie de cette thèse, nous étudions la résolution du problème inverse linéaire avec un algorithme en coordonnées ondelettes basé sur un seuillage itératif. Par la suite, les deux algorithmes sont combinés et comparés avec une autre approche non linéaire basée sur une régularisation parcimonieuse et un algorithme de point fixe. Les performances des algorithmes sont évaluées sur des données simulées pour différents niveaux de bruit. Enfin, les algorithmes ont été adaptés pour traiter des données réelles acquises en tomographie de phase à l'ESRF à Grenoble.
APA, Harvard, Vancouver, ISO, and other styles
32

Gavrilovic, Nikola. "Endurance improvement of mini UAVs through energy harvesting from atmospheric gusts." Thesis, Toulouse, ISAE, 2018. http://www.theses.fr/2018ESAE0024/document.

Full text
Abstract:
Cette thèse a pour but de découvrir la faisabilité et le potentiel de la récupération d'énergie à partir de rafales atmosphériques pour les micro et mini véhicules aériens sans pilote. L'atmosphère sert de grande source d'énergie pouvant être récoltée afin d'accroître la performance des petits UAV sous la forme d'une autonomie et d'une autonomie étendues. Il est bien connu que de nombreuses espèces d'oiseaux utilisent diverses techniques de vol pour obtenir des performances de vol étonnantes. Compte tenu du fait que les véhicules susmentionnés partagent la taille et la vitesse de vol avec des dépliants naturels, cette thèse peut être considérée comme une application des techniques de vol bio-inspirées pour les véhicules construits par l’homme. Cette étude de trois ans visait à établir une dérivation théorique des équations qui décrivent la dynamique de vol d'un aéronef en présence d'un environnement en rafales. La première réalisation a été la démonstration du mécanisme de récupération d'énergie et des paramètres d'influence à travers des simulations décrivant le vol en modèle de masse ponctuelle d'aéronef avec un contrôle optimisé de l'ascenseur en présence d'un profil de vent sinusoïdal et stochastique. La réalisation suivante est liée à un système sensoriel inspiré par la biologie qui utilise des mesures de pression des ailes pour estimer l’angle d’attaque local. Ce système particulier a été utilisé dans l’estimation du champ de vent, en tant que mécanisme décisif et protection contre le décrochage. Enfin, les dernières contributions sont liées à l’expérience et aux résultats obtenus lors d’essais en vol visant à prouver l’augmentation de l’état énergétique de l’avion lors des manœuvres de récupération d’énergie. La première campagne d'essais en vol a été réalisée avec un mini-UAV disponible dans le commerce équipé de sondes à trous multiples et d'un contrôleur conçu sur mesure. Cette campagne a démontré l’augmentation de l’état d’énergie dans un fort gradient de vent horizontal. La deuxième campagne d'essais en vol a été réalisée avec une aile volante équipée d'un système de détection de pression pour l'estimation du champ de vent. Cette campagne a également impliqué des économies supplémentaires sur la consommation d'énergie électrique lors des vols de récupération d'énergie<br>This thesis aims at discovering the feasibility and potential of energy-harvesting from atmospheric gusts for micro and mini unmanned aerial vehicles. The atmosphere serves as a great source of energy that can be harvested in order to increase performance of small UAVs in form of extended endurance and range. It is well known that many bird species use various flight techniques for achieving astonishing flight performances. Considering the fact that aforementioned vehicles share size and flight speed with natural flyers, this thesis can be considered as an application of bioinspired flight techniques for man made vehicles. This three-year study set out to establish a theoretical derivation of equations that describe flight dynamics of an aircraft in presence of gusty environment. The first achievement was demonstration of energy harvesting mechanism and influencing parameters through simulations that describe aircraft point mass model flight with optimized control of elevator in presence of sinusoidal and stochastic wind profile. The next achievement is related to a biologically inspired sensory system that uses wing pressure measurements for local angle of attack estimation. That particular system found purpose in wind field estimation, as decisive mechanism and stall protection. Finally, last contributions are related to experience and results gained from flight tests which aimed to prove increase in energy state of the aircraft while performing energy harvesting maneuvers. The first flight test campaign was performed with commercially available mini UAV equipped with multi-hole probes and custom designed controller. This campaign demonstrated the raise in energy state within strong horizontal wind gradient. The second flight test campaign was done with a flying wing equipped with pressure sensing system for wind field estimation. This campaign also involved additional insight savings in electrical power consumption during energy harvesting flights
APA, Harvard, Vancouver, ISO, and other styles
33

Vallet, Laurent. "Contribution au renforcement de la protection de la vie privée. : Application à l' édition collaborative et anonyme des documents." Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4043/document.

Full text
Abstract:
Ce travail de thèse a pour objectif de renforcer la protection de la vie privée dans l'édition collaborative de documents dématérialisés. Une première partie de notre travail a consisté en l'élaboration d'un modèle sécurisé d'éditeur collaboratif de documents. La confidentialité des documents est assurée grâce à un contrôle d'accès décentralisé. Une seconde partie a été de protéger l'identité des utilisateurs communicants en assurant leur anonymat lors de l'édition des documents. Notre concept d'éditeur collaboratif est fondé sur l'utilisation d'ensembles de modifications apportées à un document, que nous nommons deltas, lesquels définissent des versions du document. Les deltas permettent de conserver l'historique des modifications successives. Lorsqu'une nouvelle version d'un document apparait, seul le nouveau delta qui en découle doit être transmis et stocké : les documents sont ainsi distribués à travers un ensemble de sites de stockage. Cela permet, d'une part, d'alléger la charge du gestionnaire des versions des documents, et d'autre part, d'améliorer la sécurité générale. La récupération décentralisée d'une nouvelle version nécessite seulement celle des deltas manquants par rapport à une version précédente; elle est donc moins coûteuse que la récupération du document en entier. L'information du lien entre les deltas est enregistrée directement avec les deltas et non dans une table ou dans un objet de métadonnées ce qui améliore leur sécurité. La gestion des versions est faite afin de maintenir une cohérence entre les versions<br>This thesis aims to strengthen the protection of privacy of authors in collaborative editing of electronic documents. The first part of our work consisted in the design a secured model for a collaborative document editor. Documents' confidentiality is ensured through a decentralized access control mechanism. A second part of the work was to protect the identity of communicating users by ensuring their anonymity during collaborative document editing. Our concept of collaborative editor is based on the use of sets of modifications for a document, which we call textit{deltas}. Thus, deltas define versions of the document and they can keep the history of subsequent modifications. When a new version of a document appears, only the new delta that results must be transmitted and stored : documents are thus distributed across a set of storage sites (servers). We show how this allows, first, to reduce the load of document version control system, and secondly, to improve overall security of the collaborative system. Decentralized recovery of a new version requires only recovery of appropriate deltas against a previous version and is therefore more efficient than recovering the entire document. The information of the link between deltas is stored directly with deltas and not in a table or a metadata object, that improves their security. The version control system maintains consistency between versions. Once a user has retrieved versions, she holds them in local, and the history can be accessed at any time without being necessary to connect to the central server. Deltas can be identified, indexed and maintained their integrity through the use of hash functions
APA, Harvard, Vancouver, ISO, and other styles
34

Nguyen, Tan-Nhu. "Clinical decision support system for facial mimic rehabilitation." Thesis, Compiègne, 2020. http://www.theses.fr/2020COMP2590.

Full text
Abstract:
La paralysie faciale affecte négativement la vie professionnelle, sociale et personnelle des patients concernés. La récupération des mimiques faciales dans des conditions normales et symétriques permet à ces patients d'améliorer leurs qualités de vie. La rééducation fonctionnelle est une étape clinique importante pour améliorer les qualités des interventions chirurgicales. Cependant, la rééducation faciale reste actuellement un défi scientifique, technologique et clinique majeur. En particulier, l'approche conventionnelle manque des retours quantitatifs et objectifs pour optimiser les gestes et les exercices associées. L'objectif de cette thèse est de développer et d'évaluer un système d'aide à la rééducation fonctionnelle de la mimique faciale. La thèse a six contributions principales : (1) un nouveau processus de génération de la tête patient-spécifique avec la texture à partir d'un capteur sans contact de type Kinect ; (2) un nouveau processus de prédiction du crâne à partir de la surface de la tête en utilisant la modélisation statistique de la forme ; (3) une nouvelle méthode d'évaluation des mouvements de la mimique faciale en se basant sur les propriétés musculaires ; (4) un nouveau système de jeu sérieux pour la rééducation fonctionnelle de la mimique faciale (5) un nouveau système d'aide à la décision clinique pour le visage et (6) un guide de référence pour le développement de systèmes de simulation médicale en considérant la déformation des tissus mous en temps réel. Cette thèse ouvre de nouvelles perspectives liées aux différents domaines de recherche allant de la vision par ordinateur (génération automatique des modèles patient-spécifique à partir d'un capteur visuel), la modélisation biomécanique, et l'ingénierie des systèmes pour la rééducation fonctionnelle de la mimique faciale<br>Facial disorders negatively affect professional, social, and personal lives of involved patients.Thus, recovery of facial mimics into normal and symmetrical conditions allows these patients to improve their life qualities. Functional rehabilitation of facial disorders is an important clinical step to improve qualities of surgical interventions and drug therapies. However, facialmimic rehabilitation currently remains a major scientific, technological, and clinical challenge.Especially, conventional rehabilitation processes lack of quantitative and objective biofeedbacks. Moreover, rehabilitation exercises just included long-term and repetitive actions. This makes patients less ambitious for completing their training programs. Besides, numerous modeling methods, interaction devices, and system architectures have been successfully employed in clinical applications, but they have not been successfully applied for facial mimic rehabilitation. Consequently, this thesis was conducted to complement these drawbacks by designing a clinical decision-support system for facial mimic rehabilitation. Especially, patientspecific models and serious games were integrated with the system for providing quantitative and objective bio-feedbacks and training motivations. The thesis has six main contributions: (1) a novel real-time subject-specific head generation &amp; animation systems, (2) a novel head-to-skull prediction process, (3) a muscle-oriented patientspecific facial paralysis grading system, (4) a novel serious game system for facial mimic rehabilitation, (5) a novel clinical decision-support system for facial mimic rehabilitation, and (6) a reference guide for developing real-time soft-tissues simulation systems. This thesis opens new avenues for new research areas relating to automatic generation of patient specific head from visual sensor and internal structures using statistical shape modeling and real-time modeling and simulation for facial mimic rehabilitation
APA, Harvard, Vancouver, ISO, and other styles
35

Madera, Cedrine. "L’évolution des systèmes et architectures d’information sous l’influence des données massives : les lacs de données." Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS071/document.

Full text
Abstract:
La valorisation du patrimoine des données des organisation est mise au cœur de leur transformation digitale. Sous l’influence des données massives le système d’information doit s’adapter et évoluer. Cette évolution passe par une transformation des systèmes décisionnels mais aussi par l’apparition d’un nouveau composant du système d’information : Les lacs de données. Nous étudions cette évolution des systèmes décisionnels, les éléments clés qui l’influence mais aussi les limites qui apparaissent , du point de vue de l’architecture, sous l’influence des données massives. Nous proposons une évolution des systèmes d’information avec un nouveau composant qu’est le lac de données. Nous l’étudions du point de vue de l’architecture et cherchons les facteurs qui peuvent influencer sa conception , comme la gravité des données. Enfin, nous amorçons une piste de conceptualisation des lacs de données en explorant l’approche ligne de produit.Nouvelle versionSous l'influence des données massives nous étudions l'impact que cela entraîne notamment avec l'apparition de nouvelles technologies comme Apache Hadoop ainsi que les limite actuelles des système décisionnel.Les limites rencontrées par les systèmes décisionnels actuels impose une évolution au système d 'information qui doit s'adapter et qui donne naissance à un nouveau composant : le lac de données.Dans un deuxième temps nous étudions en détail ce nouveau composant, formalisons notre définition, donnons notre point de vue sur son positionnement dans le système d information ainsi que vis à vis des systèmes décisionnels.Par ailleurs, nous mettons en évidence un facteur influençant l’architecture des lacs de données : la gravité des données, en dressant une analogie avec la loi de la gravité et en nous concentrant sur les facteurs qui peuvent influencer la relation donnée-traitement.Nous mettons en évidence , au travers d'un cas d'usage , que la prise en compte de la gravité des données peut influencer la conception d'un lac de données.Nous terminons ces travaux par une adaptation de l'approche ligne de produit logiciel pour amorcer une méthode de formalisations et modélisation des lacs de données. Cette méthode nous permet :- d’établir une liste de composants minimum à mettre en place pour faire fonctionner un lac de données sans que ce dernier soit transformé en marécage,- d’évaluer la maturité d'un lac de donnée existant,- de diagnostiquer rapidement les composants manquants d'un lac de données existant qui serait devenu un marécage,- de conceptualiser la création des lacs de données en étant "logiciel agnostique”<br>Data is on the heart of the digital transformation.The consequence is anacceleration of the information system evolution , which must adapt. The Big data phenomenonplays the role of catalyst of this evolution.Under its influence appears a new component of the information system: the data lake.Far from replacing the decision support systems that make up the information system, data lakes comecomplete information systems’s architecture.First, we focus on the factors that influence the evolution of information systemssuch as new software and middleware, new infrastructure technologies, but also the decision support system usage itself.Under the big data influence we study the impact that this entails especially with the appearance ofnew technologies such as Apache Hadoop as well as the current limits of the decision support system .The limits encountered by the current decision support system force a change to the information system which mustadapt and that gives birth to a new component: the data lake.In a second time we study in detail this new component, formalize our definition, giveour point of view on its positioning in the information system as well as with regard to the decision support system .In addition, we highlight a factor influencing the architecture of data lakes: data gravity, doing an analogy with the law of gravity and focusing on the factors that mayinfluence the data-processing relationship. We highlight, through a use case, that takingaccount of the data gravity can influence the design of a data lake.We complete this work by adapting the software product line approach to boot a methodof formalizations and modeling of data lakes. This method allows us:- to establish a minimum list of components to be put in place to operate a data lake without transforming it into a data swamp,- to evaluate the maturity of an existing data lake,- to quickly diagnose the missing components of an existing data lake that would have become a dataswamp- to conceptualize the creation of data lakes by being "software agnostic “
APA, Harvard, Vancouver, ISO, and other styles
36

Ferhat, Salim. "Générateurs thermoélectriques imprimés sur substrats souples à base de matériaux hybrides pour des applications autour de la température ambiante." Thesis, Limoges, 2018. http://www.theses.fr/2018LIMO0032/document.

Full text
Abstract:
Les dispositifs thermoélectriques, légers et flexibles, peuvent être particulièrement intéressants aujourd’hui dans le contexte de l’émergence de l’informatique ubiquitaire, ainsi que de la crise environnementale liée à la consommation d’énergie électrique. Cependant, beaucoup de problèmes doivent encore être résolus pour rendre les dispositifs de récupération de chaleur commercialement viables. Dans cette thèse nous avons élaboré une méthode de conception et de fabrication par impression jet d’encre de générateurs flexibles à base de semi-conducteurs organiques et hybrides. En premier lieu, les travaux ont été consacrés au développement de matériaux thermoélectriques efficaces, stables et synthétisés par voie liquide. Les stratégies d’optimisation employées reposent sur la modulation de la concentration de porteurs de charge et le contrôle de la morphologie microscopique du matériau. En second lieu, nous avons effectué un travail de conception et de modélisation de dispositifs thermoélectriques ainsi que de leurs paramètres géométriques en utilisant des outils numériques. La modélisation numérique a été réalisée par la méthode des éléments finis 3D et par couplage d’effets physiques multidimensionnels. L’aboutissement de notre projet a été la formulation des matériaux en encres pour la fabrication de générateurs thermoélectriques par la technique de dépôt par impression jet d’encre. Différentes structures et architectures ont été expérimentalement caractérisées et systématiquement comparées aux évaluations numériques. Ainsi, nous présentons une approche intégrale de conception et de fabrication de dispositifs thermoélectriques opérant à des températures proches de l’ambiant<br>Flexible lightweight printed thermoelectric devices can become particularly interesting with the advent of ubiquitous sensing and within the context of current energy and environmental issues. However, major drawbacks of state of the art thermoelectric materials must be addressed to make waste heat recovery devices commercially feasible. In this PhD thesis, we’ve elaborated and described a method to fabricate optimized, fully inkjetprinted flexible thermoelectric generators based on organic and hybrid semiconductors. This research project can be divided into three stages: First is the development of effective, stable and solution-processed p-type and n-type thermoelectric materials. Our effort in optimizing thermoelectric materials were based on modulation of charge carrier concentration and on control of morphology. Second, design and modeling of thermoelectric devices and their geometric parameters using numerical simulation methods. Numerical simulations were based on a 3D-finite element analysis and simulation software for coupled physical problems to model and design thermoelectric devices. Finally, formulation of materials into ink in order to produce thermoelectric generators by inkjet printing deposition. Various structures and architectures were experimentally characterized and systematically compared to numerical evaluations. Hence, we produced an extensive study on designing and producing thermoelectric devices operating at near ambient temperature and conditions
APA, Harvard, Vancouver, ISO, and other styles
37

Bursuc, Andrei. "Indexation et recherche de contenus par objet visuel." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00873966.

Full text
Abstract:
La question de recherche des objets vidéo basés sur le contenu lui-même, est de plus en plus difficile et devient un élément obligatoire pour les moteurs de recherche vidéo. Cette thèse présente un cadre pour la recherche des objets vidéo définis par l'utilisateur et apporte deux grandes contributions. La première contribution, intitulée DOOR (Dynamic Object Oriented Retrieval), est un cadre méthodologique pour la recherche et récupération des instances d'objets vidéo sélectionnés par un utilisateur, tandis que la seconde contribution concerne le support offert pour la recherche des vidéos, à savoir la navigation dans les vidéo, le système de récupération de vidéos et l'interface avec son architecture sous-jacente.Dans le cadre DOOR, l'objet comporte une représentation hybride obtenues par une sur-segmentation des images, consolidé avec la construction des graphs d'adjacence et avec l'agrégation des points d'intérêt. L'identification des instances d'objets à travers plusieurs vidéos est formulée comme un problème d'optimisation de l'énergie qui peut approximer un tache NP-difficile. Les objets candidats sont des sous-graphes qui rendent une énergie optimale vers la requête définie par l'utilisateur. Quatre stratégies d'optimisation sont proposées: Greedy, Greedy relâché, recuit simulé et GraphCut. La représentation de l'objet est encore améliorée par l'agrégation des points d'intérêt dans la représentation hybride, où la mesure de similarité repose sur une technique spectrale intégrant plusieurs types des descripteurs. Le cadre DOOR est capable de s'adapter à des archives vidéo a grande échelle grâce à l'utilisation de représentation sac-de-mots, enrichi avec un algorithme de définition et d'expansion de la requête basée sur une approche multimodale, texte, image et vidéo. Les techniques proposées sont évaluées sur plusieurs corpora de test TRECVID et qui prouvent leur efficacité.La deuxième contribution, OVIDIUS (On-line VIDeo Indexing Universal System) est une plate-forme en ligne pour la navigation et récupération des vidéos, intégrant le cadre DOOR. Les contributions de cette plat-forme portent sur le support assuré aux utilisateurs pour la recherche vidéo - navigation et récupération des vidéos, interface graphique. La plate-forme OVIDIUS dispose des fonctionnalités de navigation hiérarchique qui exploite la norme MPEG-7 pour la description structurelle du contenu vidéo. L'avantage majeur de l'architecture propose c'est sa structure modulaire qui permet de déployer le système sur terminaux différents (fixes et mobiles), indépendamment des systèmes d'exploitation impliqués. Le choix des technologies employées pour chacun des modules composant de la plate-forme est argumentée par rapport aux d'autres options technologiques.
APA, Harvard, Vancouver, ISO, and other styles
38

Ion, Valentina. "Nonlinear approaches for phase retrieval in the Fresnel region for hard X-ray imaging." Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-01015814.

Full text
Abstract:
The development of highly coherent X-ray sources offers new possibilities to image biological structures at different scales exploiting the refraction of X-rays. The coherence properties of the third-generation synchrotron radiation sources enables efficient implementations of phase contrast techniques. One of the first measurements of the intensity variations due to phase contrast has been reported in 1995 at the European Synchrotron Radiation Facility (ESRF). Phase imaging coupled to tomography acquisition allows threedimensional imaging with an increased sensitivity compared to absorption CT. This technique is particularly attractive to image samples with low absorption constituents. Phase contrast has many applications, ranging from material science, paleontology, bone research to medicine and biology. Several methods to achieve X-ray phase contrast have been proposed during the last years. In propagation based phase contrast, the measurements are made at different sample-to-detector distances. While the intensity data can be acquired and recorded, the phase information of the signal has to be "retrieved" from the modulus data only. Phase retrieval is thus an illposed nonlinear problem and regularization techniques including a priori knowledge are necessary to obtain stable solutions. Several phase recovery methods have been developed in recent years. These approaches generally formulate the phase retrieval problem as a linear one. Nonlinear treatments have not been much investigated. The main purpose of this work was to propose and evaluate new algorithms, in particularly taking into account the nonlinearity of the direct problem. In the first part of this work, we present a Landweber type nonlinear iterative scheme to solve the propagation based phase retrieval problem. This approach uses the analytic expression of the Fréchet derivative of the phase-intensity relationship and of its adjoint, which are presented in detail. We also study the effect of projection operators on the convergence properties of the method. In the second part of this thesis, we investigate the resolution of the linear inverse problem with an iterative thresholding algorithm in wavelet coordinates. In the following, the two former algorithms are combined and compared with another nonlinear approach based on sparsity regularization and a fixed point algorithm. The performance of theses algorithms are evaluated on simulated data for different noise levels. Finally the algorithms were adapted to process real data sets obtained in phase CT at the ESRF at Grenoble.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!