Дисертації з теми "Récepteur à complexité réduite"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Récepteur à complexité réduite.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-18 дисертацій для дослідження на тему "Récepteur à complexité réduite".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Salah, Abdellatif. "Schémas de décodage MIMO à Complexité Réduite." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00682392.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'utilisation des antennes MIMO est une technique qui permet d'exploiter de façon très efficace la diversité spatiale et temporelle présente dans certains systèmes de communication, dont le canal sans fil. Le principal avantage de cette technique est une très grande efficacité spectrale. De nos jours, où le canal radio-mobile est de plus en plus utilisé pour transmettre tout type d'information, les méthodes permettant une utilisation plus efficace du spectre électromagnétique ont une importance fondamentale. Les algorithmes de réception connus aujourd'hui sont très complexes, même en ce qui concerne les systèmes MIMO avec les codes espace-temps les plus simples. Cette complexité reste l'un des obstacles principaux à l'exploitation réelle. Cette thèse présente une étude très détaillée de la complexité, la performance et les aspects les plus intéressants du comportement des algorithmes de la réception pour le décodage MIMO, étude qui présente un moyen rapide pour une éventuelle conception des architectures adaptées à ce problème. Parmi les sujets présentés dans cette thèse, une étude approfondie de la performance et la complexité de ces algorithmes a été réalisée, ayant pour objectif d'avoir une connaissance suffisante pour pouvoir choisir, parmi le grand nombre d'algorithmes connus, le mieux adapté à chaque système particulier. Des améliorations aux algorithmes connus ont aussi été proposées et analysées.
2

Brun, Jean-Marc. "Modèles à complexité réduite de transport pour applications environnementales." Montpellier 2, 2007. http://www.theses.fr/2007MON20248.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette étude présente une plateforme de modèles à complexité réduite pour le transport et la dispersion atmosphérique d'un scalaire passif pour applications environnementales. Une approche multi-échelle est appliquée avec une définition de l'espace de recherche adéquat pour la solution à chaque niveau. Au niveau local, la dérive en champ proche est estimée par la théorie des jets turbulents et détermine le terme source pour le niveau d'ordre supérieur. On utilise notamment les solutions de similitudes pour les panaches dans une métrique nonsymétrique pour le transport sur des grandes distances. L'approche ne nécessite pas la solution d'EDP, donc pas de maillage et il est possible accéder à la valeur en un point sans avoir à calculer la solution sur l'ensemble du domaine
A platform of low complexity models for the transport of passive scalars for environmental applications is presented. Multi-level analysis has been used with a reduction in dimension of the solution space at each level. Local spray drift distribution is estimated thanks to the turbulent jet theory and determine the source term. Similitude solutions are used in a non symmetric metric for the transport over long distances. Model parameters identification is based on data assimilation. The approach does not require the solution of any PDE and therefore is mesh free. The model also permits to access the solution in one point without computing the solution over the whole domain
3

Ouertani, Rym. "Algorithmes de décodage pour les systèmes multi-antennes à complexité réduite." Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00718214.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Durant ces dernières années, un grand intérêt a été accordé aux systèmes de communication sans fil ayant plusieurs antennes en émission et en réception. Les codes espace-temps permettent d'exploiter tous les degrés de liberté de tels systèmes. Toutefois, le décodage de ces codes présente une grande complexité qui croit en fonction du nombre d'antennes déployées et de la taille de la constellation utilisée. Nous proposons un nouveau décodeur, appelé SB-Stack (Spherical Bound-Stack decoder) basé sur un algorithme de recherche dans l'arbre. Ce décodeur combine la stratégie de recherche du décodeur séquentiel Stack (dit également décodeur à pile) et la région de recherche du décodeur par sphères. Nous montrons que ce décodeur présente une complexité moindre par rapport à tous les décodeurs existants tout en offrant des performances optimales. Une version paramétrée de ce décodeur est aussi proposée, offrant une multitude de performances allant du ZF-DFE au ML avec des complexités croissantes, ainsi plusieurs compromis performances-complexités sont obtenus. Comme pour tous les systèmes de communication, les codes espace-temps pour les systèmes à antennes multiples peuvent être concaténés avec des codes correcteurs d'erreurs. Généralement, ces derniers sont décodés par des décodeurs à entrées et sorties souples. Ainsi, nous avons besoin de sorties souples fournies par le décodeur espace-temps qui seront utilisées comme entrées par les premiers décodeurs. Nous proposons alors une version modifiée du décodeur SB-Stack délivrant des sorties souples sous forme de taux de vraisemblance logarithmiques (Log-Likelihood Ratio - LLR). Pour la mise en oeuvre pratique des décodeurs, il est important d'avoir une complexité faible mais avoir également une complexité constante est indispensable dans certaines applications. Nous proposons alors un décodeur adaptatif qui permet de sélectionner, parmi plusieurs algorithmes de décodage, celui qui est le plus adéquat selon la qualité du canal de transmission et la qualité de service souhaitée. Nous présentons une implémentation pratique du décodage adaptatif utilisant le décodeur SB-Stack paramétré. Le décodage des codes espace-temps peut être amélioré en le précédant par une phase de pré-traitement. En sortie de cette phase, la matrice du canal équivalente est mieux conditionnée ce qui permet de réduire la complexité d'un décodeur optimal et d'améliorer les performances d'un décodeur sous-optimal. Nous présentons et nous étudions alors les performances d'une chaine complète de décodage utilisant diverses techniques de pré-traitement combinées avec les décodeurs espace-temps étudiés précédemment.
4

Bhouri, Mounir. "Algorithmes adaptatifs parallèles à complexité réduite, application au filtrage adaptatif multi-canal." Paris 5, 1999. http://www.theses.fr/1999PA05S003.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les algorithmes adaptatifs sont utilisés dans différentes applications de traitement du signal. Ainsi dans les applications telles que l'annulation d'écho acoustique, on utilise des algorithmes robustes et à faible complexité à cause des fortes contraintes imposées (temps réel, signaux complexes). Toutefois, les approches existantes de réduction de la complexité des moindres carrés concernent exclusivement les algorithmes issus du RLS, ils présentent, par conséquent, des problèmes d'instabilité numérique. Nous abordons dans cette thèse, la dérivation d'une nouvelle classe d'algorithmes adaptatifs. Ces algorithmes sont issus de l’algorithme QR-RLS par l'introduction de transformations itératives dans le schéma d'adaptation des matrices de l'algorithme. Ils présentent de ce fait d'excellentes propriétés numériques. Nous développons, également, des implémentations parallèles ainsi que des versions rapides de ces algorithmes. Les simulations dans le contexte de filtrage adaptatif multicanal, pour les applications : annulation d'écho acoustique stéréophonique et égalisation d'un canal numérique, permettent de mettre en évidence un comportement robuste des algorithmes bloc-GR. De même, cette approche s'applique au filtrage adaptatif à réponse impulsionnelle infinie (IIR), nous dérivons alors des algorithmes IIR rapides et efficaces. Finalement, nous définissons un cadre plus général d'algorithmes adaptatifs square-root qui intègre les algorithmes des moindres carrés, les algorithmes du gradient et les algorithmes bloc-QR. Ces derniers sont alors identifiés comme des intermédiaires entre les algorithmes des moindres carrés à convergence rapide et les algorithmes du gradient à convergence robuste.
5

Kasan, Karim. "Performance of a new single sideband (SSB) continuous phase modulation (CPM)." Thesis, CentraleSupélec, 2021. http://www.theses.fr/2021CSUP0010.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous étudions la modulation par déplacement de fréquence à bande latérale unique (SSB-FSK), un schéma de modulation de phase continue (CPM) ayant, par essence, la caractéristique original du spectre à bande latérale unique (BLU). Tout d’abord, nous présentons l’origine du signal à partir de la physique quantique. Ensuite, nous proposons un détecteur de séquence à maximum de vraisemblance (MLSD) simplifié pour les schémas CPM conventionnels, basé sur le réarrangement montré dans le modèle de signal SSB-FSK. Pour exploiter pleinement les performances de la SSB-FSK, nous examinons la probabilité d’erreur du signal, l’occupation de la bande passante et la complexité du récepteur. Étant donné que différentes mesures de performance sont prises en compte, nous avons utilisé une optimisation multi-objectifs pour obtenir de nouveaux schémas SSB-FSK plus performants que les schémas CPM classiques. En outre, nous proposons une solution pour simplifier la complexité des signaux SSB-FSK en utilisant la décomposition de la modulation d’amplitude d’impulsion (PAM). Les impulsions PAM ont été obtenues à partir d’un algorithme que nous avons développé. En outre, nous proposons une séquence d’entraînement générique optimale pour l’estimation conjointe de la synchronisation des symboles, du décalage de fréquence et de la phase de la porteuse pour la synchronisation en mode burst. La séquence d’entraînement a été obtenue en utilisant les bornes de Cramér-Rao
In this PhD thesis, we investigate the single-sideband frequency shift keying (SSB-FSK), a continuous phase modulation (CPM) scheme having, by essence, the original feature of the single-sideband (SSB) spectrum. First, we present the origin of the signal from quantum physics. Then, we propose a simplified Maximum likelihood sequence detection (MLSD) detector for conventional CPM schemes based on the rearrangement shown in the SSB-FSK signal model. To fully exploit the SSB-FSK performance, we examine the signal error probability, bandwidth occupancy, and receiver complexity. Since different performance metrics are considered, we employed a multi-objective optimization to achieve new SSB-FSK schemes that outperform conventional CPM schemes. Moreover, we propose a solution to simplify the complexity of SSB-FSK signals using the pulse amplitude modulation (PAM) decomposition. The PAM pulses were achieved from an algorithm we developed. Furthermore, we offer an optimum generic training sequence for the joint estimation of symbol timing, frequency offset, and carrier phase for burst mode synchronization. The training sequence was obtained using the Cramér-Rao bounds
6

Kibangou, Alain Y. "Modèles de volterra à complexité réduite : estimation paramétrique et application à l'égalisation des canaux de communication." Phd thesis, Université de Nice Sophia-Antipolis, 2005. http://tel.archives-ouvertes.fr/tel-00190985.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une large classe de systèmes physiques peut être représentée à l'aide du modèle de Volterra. Il a notamment été montré que tout système non-linéaire, invariant dans le temps et à mémoire évanouissante peut être représenté par un modèle de Volterra de mémoire et d¤ordre finis. Ce modèle est donc particulièrement attrayant pour les besoins de modélisation et d'identification de systèmes non-linéaires. Un des atouts majeurs du modèle de Volterra est la linéarité par rapport à ses paramètres, c¤est à dire les coefficients de ses noyaux. Cette caractéristique permet d'étendre à ce modèle certains résultats établis pour l'identification des modèles linéaires. Il est à noter que le modèle de Volterra peut, par ailleurs, être vu comme une extension naturelle de la notion de réponse impulsionnelle des systèmes linéaires aux systèmes non-linéaires. Toutefois, certaines limitations sont à circonvenir: un nombre de paramètres qui peut être très élevé et un mauvais conditionnement de la matrice des moments de l'entrée intervenant dans l¤estimation du modèle au sens de l¤erreur quadratique moyenne minimale (EQMM). Il est à noter que ce mauvais conditionnement est aussi à l¤origine de la lenteur de convergence des algorithmes adaptatifs de type LMS (Least Mean Squares). Cette thèse traite principalement de ces deux questions. Les solutions apportées sont essentiellement basées sur la notion d'orthogonalité. D'une part, l'orthogonalité est envisagée vis à vis de la structure du modèle en développant les noyaux de Volterra sur une base orthogonale de fonctions rationnelles. Ce développement est d'autant plus parcimonieux que la base est bien choisie. Pour ce faire, nous avons développé de nouveaux outils d'optimisation des bases de Laguerre et BFOR (Base de Fonctions Orthonormales Rationnelles) pour la représentation des noyaux de Volterra. D'autre part, l'orthogonalité est envisagée en rapport avec les signaux d'entrée. En exploitant les propriétés statistiques de l¤entrée, des bases de polynômes orthogonaux multivariables ont été construites. Les paramètres du modèle de Volterra développé sur de telles bases sont alors estimés sans aucune inversion matricielle, ce qui simplifie significativement l¤estimation paramétrique au sens EQMM. L¤orthogonalisation des signaux d¤entrée a aussi été envisagée via une procédure de Gram-Schmidt. Dans un contexte adaptatif, il en résulte une accélération de la convergence des algorithmes de type LMS sans un surcoût de calcul excessif. Certains systèmes physiques peuvent être représentés à l¤aide d¤un modèle de Volterra simplifié, à faible complexité paramétrique, tel que le modèle de Hammerstein et celui de Wiener. C¤est le cas d¤un canal de communication représentant l'accès à un réseau sans fil via une fibre optique. Nous montrons notamment que les liaisons montante et descendante de ce canal peuvent respectivement être représentées par un modèle de Wiener et par un modèle de Hammerstein. Dans le cas mono-capteur, en utilisant un précodage de la séquence d'entrée, nous développons une solution permettant de réaliser l'estimation conjointe du canal de transmission et des symboles transmis de manière semiaveugle. Il est à noter que, dans le cas de la liaison montante, une configuration multi-capteurs peut aussi être envisagée. Pour une telle configuration, grâce à un précodage spécifique de la séquence d¤entrée, nous exploitons la diversité spatiale introduite par les capteurs et la diversité temporelle de sorte à obtenir une représentation tensorielle du signal reçu. En appliquant la technique de décomposition tensorielle dite PARAFAC, nous réalisons l'estimation conjointe du canal et des symboles émis de manière aveugle. Mots clés: Modélisation, Identification, Bases orthogonales, Base de Laguerre, Base de fonctions orthonormales rationnelles, Polynômes orthogonaux, Optimisation de pôles, Réduction de complexité, Egalisation, Modèle de Volterra, Modèle de Wiener, Modèle de Hammerstein, Décomposition PARAFAC.
7

Khouaja, Anis. "Modélisation et identification de systèmes non-linéaires à l'aide de modèles de volterra à complexité réduite." Phd thesis, Université de Nice Sophia-Antipolis, 2005. http://tel.archives-ouvertes.fr/tel-00090557.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'identification des systèmes dynamiques non linéaires à partir d'un ensemble de données entrée/sortie est d'une importance fondamentale pour les applications pratiques puisque beaucoup de systèmes physiques possèdent des caractéristiques non linéaires. La structure du modèle de Volterra peut être utilisée pour représenter une classe générale de systèmes non linéaires. Cependant, l'usage pratique d'une telle représentation est souvent limité à cause du grand nombre de paramètres associé à une telle structure. Pour pallier à cet inconvénient, plusieurs solutions sont proposées dans cette thèse. La première utilise des développements en série des différents noyaux sur des bases de fonctions orthogonales. La deuxième est basée sur l'utilisation de techniques faisant appel à des décompositions d'ordre réduit des tenseurs relatifs aux noyaux d'ordre supérieur ou égal à trois. Diverses bases de fonctions (Laguerre, Kautz et Bases Orthogonales Généralisées (BOG)) sont tout d'abord étudiées en vue de leur utilisation pour la modélisation des systèmes linéaires puis pour la représentation des noyaux de modèle de Volterra. Le problème d'identification comporte plusieurs volets : détermination des pôles caractéristiques des bases de fonctions orthogonales, de l'ordre des développements des différents noyaux, des coefficients de Fourier du développement et de l'incertitude relative à ces coefficients. Une représentation d'état associée à un développement sur une base de fonctions orthogonales généralisées est développée puis utilisée pour la construction de prédicteurs de la sortie du système ainsi modélisé. Ensuite, plusieurs décompositions tensorielles sont étudiées. La décomposition PARAFAC est plus particulièrement considérée. Des modèles de Volterra à complexité réduite inspirés de cette technique sont proposés. En considérant le noyau quadratique de Volterra comme une matrice et les autres noyaux comme des tenseurs d'ordres supérieurs à deux, nous utilisons une décomposition à l'aide des valeurs singulières (SVD) pour le noyau quadratique et la décomposition PARAFAC pour les noyaux d'ordres supérieurs à deux afin de construire le modèle réduit de Volterra appelé SVD-PARAFAC-Volterra. Un nouvel algorithme appelé ARLS (Alternating Recursive Least Squares) est présenté. Cet algorithme essentiellement basé sur la technique RLS appliquée d'une manière alternée estime les paramètres de tels modèles de Volterra. Enfin, de nouvelles méthodes d'identification robuste dites à erreur bornée sont présentées. Elles sont utilisées pour l'identification de modèles linéaires issus des BOG, travail qui vise à étendre au cas des systèmes non linéaires incertains des résultats obtenus récemment pour des systèmes linéaires incertains. Parmi les techniques d'identification à erreur bornée présentées, l'approche polytopique est plus particulièrement considérée. Cette approche nous permet d'estimer les intervalles d'incertitude des coefficients de Fourier du développement sur les différentes bases orthogonales étudiées. Ces mêmes méthodes d'identification sont utilisées aussi afin d'identifier les intervalles d'incertitude des paramètres du modèle SVD-PARAFAC-Volterra. Les méthodes proposées permettent de réaliser une importante réduction de complexité numérique et un gain en temps de calcul considérables.
8

El, chall Rida. "Récepteur itératif pour les systèmes MIMO-OFDM basé sur le décodage sphérique : convergence, performance et complexité." Thesis, Rennes, INSA, 2015. http://www.theses.fr/2015ISAR0019/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Pour permettre l’accroissement de débit et de robustesse dans les futurs systèmes de communication sans fil, les processus itératifs sont de plus considérés dans les récepteurs. Cependant, l’adoption d’un traitement itératif pose des défis importants dans la conception du récepteur. Dans cette thèse, un récepteur itératif combinant les techniques de détection multi-antennes avec le décodage de canal est étudié. Trois aspects sont considérés dans un contexte MIMOOFDM: la convergence, la performance et la complexité du récepteur. Dans un premier temps, nous étudions les différents algorithmes de détection MIMO à décision dure et souple basés sur l’égalisation, le décodage sphérique, le décodage K-Best et l’annulation d’interférence. Un décodeur K-best de faible complexité (LC-K-Best) est proposé pour réduire la complexité sans dégradation significative des performances. Nous analysons ensuite la convergence de la combinaison de ces algorithmes de détection avec différentes techniques de codage de canal, notamment le décodeur turbo et le décodeur LDPC en utilisant le diagramme EXIT. En se basant sur cette analyse, un nouvel ordonnancement des itérations internes et externes nécessaires est proposé. Les performances du récepteur ainsi proposé sont évaluées dans différents modèles de canal LTE, et comparées avec différentes techniques de détection MIMO. Ensuite, la complexité des récepteurs itératifs avec différentes techniques de codage de canal est étudiée et comparée pour différents modulations et rendement de code. Les résultats de simulation montrent que les approches proposées offrent un bon compromis entre performance et complexité. D’un point de vue implémentation, la représentation en virgule fixe est généralement utilisée afin de réduire les coûts en termes de surface, de consommation d’énergie et de temps d’exécution. Nous présentons ainsi une représentation en virgule fixe du récepteur itératif proposé basé sur le décodeur LC K-Best. En outre, nous étudions l’impact de l’estimation de canal sur la performance du système. Finalement, le récepteur MIMOOFDM itératif est testé sur la plateforme matérielle WARP, validant le schéma proposé
Recently, iterative processing has been widely considered to achieve near-capacity performance and reliable high data rate transmission, for future wireless communication systems. However, such an iterative processing poses significant challenges for efficient receiver design. In this thesis, iterative receiver combining multiple-input multiple-output (MIMO) detection with channel decoding is investigated for high data rate transmission. The convergence, the performance and the computational complexity of the iterative receiver for MIMO-OFDM system are considered. First, we review the most relevant hard-output and soft-output MIMO detection algorithms based on sphere decoding, K-Best decoding, and interference cancellation. Consequently, a low-complexity K-best (LCK- Best) based decoder is proposed in order to substantially reduce the computational complexity without significant performance degradation. We then analyze the convergence behaviors of combining these detection algorithms with various forward error correction codes, namely LTE turbo decoder and LDPC decoder with the help of Extrinsic Information Transfer (EXIT) charts. Based on this analysis, a new scheduling order of the required inner and outer iterations is suggested. The performance of the proposed receiver is evaluated in various LTE channel environments, and compared with other MIMO detection schemes. Secondly, the computational complexity of the iterative receiver with different channel coding techniques is evaluated and compared for different modulation orders and coding rates. Simulation results show that our proposed approaches achieve near optimal performance but more importantly it can substantially reduce the computational complexity of the system. From a practical point of view, fixed-point representation is usually used in order to reduce the hardware costs in terms of area, power consumption and execution time. Therefore, we present efficient fixed point arithmetic of the proposed iterative receiver based on LC-KBest decoder. Additionally, the impact of the channel estimation on the system performance is studied. The proposed iterative receiver is tested in a real-time environment using the MIMO WARP platform
9

Alirol, Servane. "Etude génétique du complexe synaptique lié au récepteur NMDA et caractérisation de modèles à complexité variable dans l'autisme." Thesis, Tours, 2015. http://www.theses.fr/2015TOUR3303/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'autisme est un trouble du développement du système nerveux central défini par des altérations des interactions sociales et de la communication, et par des comportements restreints et répétitifs. Sa prévalence est actuellement évaluée jusqu'à 1% dans la population générale. L'autisme est caractérisé par une grande hétérogénéité sur les plans phénotypiques et génétiques. À ce jour, plus de 300 gènes candidats ont été caractérisés soit par des variations du nombre de copies (CNV) et/ou des variations nucléotidiques (SNV). Leur identification a permis de mettre en évidence une contribution significative de mutation de novo, ainsi que l'implication de voies physiopathologiques cibles, en particulier la densité post-synaptique (PSD)
Autism is a developmental disorder of the central nervous system defined by impairments in social interaction and communication, and by restricted and repetitive behavior. Its prevalence is currently estimated at around 1% in the general population. Autism is characterized by a wide heterogeneity at both phenotypic and genetic level. To date, more than 300 candidate genes were characterized either by copy number variations (CNV) and/or nucleotide variations (SNV). Their identification has highlighted a significant contribution of de novo mutations, as well as the involvement of targeted pathophysiological pathways, particularly post-synaptic density (PSD)
10

Baudot, Pierre. "Computation naturelle, beaucoup de bruit pour rien ?" Paris 6, 2007. https://tel.archives-ouvertes.fr/tel-00203712.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le codage de l’information environnementale par le cerveau est sujet à d’intenses débats tant au niveau de son implémentation biologique (propriété fonctionnelles) qu’au niveau de sa variabilité et de sa précision. Cette étude se base sur des enregistrements intracellulaires in-vivo des réponses des neurones du cortex visuel primaire à des stimuli de complexité variable incluant des images naturelles animées par des mouvements oculaires. Nous montrons que les propriétés fonctionnelles sont générées par la récurrence corticale, notamment par la balance excitation/inhibition exprimée au travers d’une grande diversité de combinatoire de sélectivité fonctionnelle des entrées synaptiques. En condition naturelle avec mouvement des yeux, nous montrons que le code est reproductible, binaire/temporel et que les interactions ou contrôles de gain corticaux, sculptant temporellement les réponses corticales, augmentent la précision temporelle et la reproductibilité du code. Nous proposons un modèle statistique universel d’adaptation et d’auto-organisation consistant en la maximisation de l’information mutuelle entre le système et son environnement.
11

Baudot, Pierre. "Computation naturelle, beaucoup de bruit pour rien." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2006. http://tel.archives-ouvertes.fr/tel-00203712.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le codage de l'information environnementale par le cerveau est sujet à d'intenses débats tant au niveau de son implémentation biologique (propriété fonctionnelles) qu'au niveau de sa variabilité et de sa précision. Cette étude se base sur des enregistrements intracellulaires in-vivo des réponses des neurones du cortex visuel primaire à des stimuli de complexité variable incluant des images naturelles animées par des mouvements oculaires. Nous montrons que les propriétés fonctionnelles sont générées par la récurrence corticale, notamment par la balance excitation/inhibition exprimée au travers d'une grande diversité de combinatoire de sélectivité fonctionnelle des entrées synaptiques. En condition naturelle avec mouvement des yeux, nous montrons que le code est reproductible, binaire/temporel et que l'analyse corticale se traduit par une réduction des redondances présentes dans les entrées. Les interactions ou contrôles de gain corticaux, dont le profile temporel biphasique sculpte temporellement les réponses corticales, augmentent la précision temporelle et la reproductibilité du code. Nous proposons (en discussion) une ébauche de modèle statistique général d'adaptation et d'auto-organisation consistant en la maximisation de l'information mutuelle entre le système et son environnement. Ce modèle, basé sur une décomposition microscopique de l'entropie en ordre de redondance, est suffisant pour rendre compte des propriétés singulières de l'organisation du vivant (incluant la cognition) tel que sa reproductibilité, sa diversité, et son optimalité (en terme de codage).
12

Batut, Eric. "Etude du bloc de réception dans un terminal UMTS-FDD et développement d'une méthodologie de codesign en vue du fonctionnement en temps réel." Phd thesis, Grenoble INPG, 2002. http://tel.archives-ouvertes.fr/tel-00512307.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'UMTS est un nouveau standard de radiocommunications mobiles destiné à résoudre les problèmes des actuels réseaux de deuxième génération, proches localement de la saturation et limités dans leur offre de services multimédias par les faibles débits utiles supportés. L'UMTS représente une rupture technologique importante et nécessite un effort particulier pour la réa- lisation des équipements, car la complexité des traitements à effectuer a augmenté dans des proportions considérables. Les terminaux 3G, par exemple, devront embarquer une puissance de calcul supérieure de plus d'un ordre de grandeur à celle embarquée par leurs prédécesseurs. Après avoir introduit l'UMTS et une de ses interfaces radios, le Wideband CDMA, nous avons identifié l'estimation par le terminal du canal radiomobile par lequel a transité le signal émis par la station de base comme étant une des tâches susceptibles d'entraîner le plus grand nombre d'opérations à effectuer. Une solution originale à ce problème est proposée sous la forme d'un algorithme d'estimation itérative de canal à suppression de trajets. La complexité calculatoire de cet algorithme a l'inconvénient majeur de varier avec le carré du facteur de suréchantillonnage, ce qui empêche de travailler avec une valeur élevée de celui-ci, et par consé- quent ne permet pas d'obtenir une grande précision quant à l'estimation des instants d'arrivée des trajets. Ce problème est résolu en introduisant une version optimisée de cet algorithme, dont la complexité varie linéairement avec le facteur de suréchantillonnage. Conserver une com- plexité raisonnable tout en travaillant avec des facteurs de suréchantillonnage élevés devient réaliste, ce qui permet d'accéder à coût égal à une précision plus élevée qu'avec l'algorithme origininal. De plus, cette optimisation simplifie les opérations élémentaires effectuées par l'algo- rithme, ce qui a pour conséquence de rendre son implémentation sur une architecture hybride matérielle-logicielle plus efficace que son implémentation sur un seul processeur de signal. Une méthodologie de conception au niveau système est ensuite proposée pour réaliser cette architecture hybride dans un but de prototypage rapide. Cette méthodologie, bâtie autour du logiciel N2C, de la société CoWare, utilise un langage de haut niveau, surensemble du langage C auquel ont été rajoutées les constructions nécessaires pour décrire des architectures matérielles. L'algorithme est partitionné en une partie logicielle s'exécutant sur un cœur de DSP ST100 et un coprocesseur réalisé en logique câblée. De sévères incompatibilités logicielles ont empêché la réalisation de cette architecture hybride selon la méthodologie proposée, mais des résultats intéressants ont néanmoins été obtenus à partir d'une implémentation purement logicielle de l'algorithme proposé. L'architecture obtenue avec l'application des premières étapes de la méthodologie proposée à l'algorithme d'estimation de canal est décrite, ainsi que quelques suggestions faites à la société CoWare, Inc. pour l'amélioration de leur outil. Enfin, l'adéquation de la méthodologie proposée à un environnement de prototypage rapide est discutée et des pistes pour la réalisation d'un éventuel démonstrateur sont données.
13

Robinet, Arthur. "Modélisation de l’évolution long-terme du trait de côte le long des littoraux sableux dominés par l’action des vagues." Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0946/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les littoraux sableux dominés par l'action des vagues sont des zones très dynamiques où l'aléa érosion menace les activités humaines et la sécurité des personnes. Comprendre et prévoir les évolutions du trait de côte est crucial pour informer et guider les gestionnaires du littoral. Actuellement, aucun modèle numérique ne permet de reproduire les évolutions du trait de côte sur l'ensemble des échelles spatio-temporelles et des configurations de côte requises du fait de limitations numériques et physiques. Cette thèse se concentre sur le développement de nouveaux outils de modélisation à complexité réduite pour simuler les évolutions du trait de côte le long des littoraux sableux dominés par l'action des vagues sur des échelles de temps allant de l'heure à plusieurs décennies avec des temps de calcul réduits. D'abord, un modèle statistique de trait de côte s'appuyant uniquement sur les occurrences saisonnières de régimes de temps est développé. Ce modèle permet de simuler la variabilité du trait de côte à l'échelle pluriannuelle, sans avoir besoin de connaitre les conditions de vagues ou de modéliser le transport sédimentaire. Puis, un nouveau modèle numérique de trait de côte basé sur les vagues (LX-Shore) est développé en intégrant entre autres les forces de certains modèles existants. Il inclut les processus cross-shore et longshore, et couple la dynamique du trait de côte à la propagation des vagues via le modèle spectral de vagues SWAN. Ce modèle permet de simuler l'évolution de formes complexes comme par exemple les flèches sableuses. Ces outils ouvrent aussi la voie vers une meilleure évaluation des évolutions futures du trait de côte, ainsi que de la contribution respective des processus impliqués
Wave-dominated sandy coasts are highly dynamic and populated systems increasingly threatened by erosion hazard. Understanding and predicting shoreline change is critical to inform and guide stakeholders. However, there is currently no numerical model able to reproduce and predict shoreline evolution over the full range of temporal scales and coastal geometries owing to numerical and physical limitations. This thesis focuses on the development of new reduced-complexity models to simulate shoreline change along wave-dominated sandy coasts on the timescales from hours to decades with low computation time. First, a statistical shoreline change model based on the seasonal occurrences of some oceanic basin weather regimes is developed. This model allows simulating shoreline variability at the seasonal and interannual scales, without resorting to wave data or sediment transport modeling. Second, a new so-called LX-Shore numerical wave-driven shoreline change model is developed, which takes the best from some existing models and includes additional numerical and physical developments. LX-Shore couples the primary longshore and cross-shore processes and includes the feedback of shoreline and bathymetric evolution on the wave field using a spectral wave model. LX-Shore successfully simulates the dynamics of coastal embayments or the formation of subsequent nonlinear evolution of complex shoreline features such as flying sandspits. It is anticipated that LX-Shore will provide new and quantitative insight into the respective contributions of the processes controlling shoreline change on real coasts for a wide range of wave climates and geological settings
14

Rapadamnaba, Robert. "Uncertainty analysis, sensitivity analysis, and machine learning in cardiovascular biomechanics." Thesis, Montpellier, 2020. http://www.theses.fr/2020MONTS058.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse fait suite à une étude récente, menée par quelques chercheurs de l'Université de Montpellier, dans le but de proposer à la communauté scientifique une procédure d'inversion capable d'estimer de manière non invasive la pression dans les artères cérébrales d'un patient.Son premier objectif est, d'une part, d'examiner la précision et la robustesse de la procédure d'inversion proposée par ces chercheurs, en lien avec diverses sources d'incertitude liées aux modèles utilisés, aux hypothèses formulées et aux données cliniques du patient, et d'autre part, de fixer un critère d'arrêt pour l'algorithme basé sur le filtre de Kalman d'ensemble utilisé dans leur procédure d'inversion. À cet effet, une analyse d'incertitude et plusieurs analyses de sensibilité sont effectuées. Le second objectif est d'illustrer comment l'apprentissage machine, orienté réseaux de neurones convolutifs, peut être une très bonne alternative à la longue et coûteuse procédure mise en place par ces chercheurs pour l'estimation de la pression.Une approche prenant en compte les incertitudes liées au traitement des images médicales du patient et aux hypothèses formulées sur les modèles utilisés, telles que les hypothèses liées aux conditions limites, aux paramètres physiques et physiologiques, est d'abord présentée pour quantifier les incertitudes sur les résultats de la procédure. Les incertitudes liées à la segmentation des images sont modélisées à l'aide d'une distribution gaussienne et celles liées au choix des hypothèses de modélisation sont analysées en testant plusieurs scénarios de choix d'hypothèses possibles. De cette démarche, il ressort que les incertitudes sur les résultats de la procédure sont du même ordre de grandeur que celles liées aux erreurs de segmentation. Par ailleurs, cette analyse montre que les résultats de la procédure sont très sensibles aux hypothèses faites sur les conditions aux limites du modèle du flux sanguin. En particulier, le choix des conditions limites symétriques de Windkessel pour le modèle s'avère être le plus approprié pour le cas du patient étudié.Ensuite, une démarche permettant de classer les paramètres estimés à l'aide de la procédure par ordre d'importance et de fixer un critère d'arrêt pour l'algorithme utilisé dans cette procédure est proposée. Les résultats de cette stratégie montrent, d'une part, que la plupart des résistances proximales sont les paramètres les plus importants du modèle pour l'estimation du débit sanguin dans les carotides internes et, d'autre part, que l'algorithme d'inversion peut être arrêté dès qu'un certain seuil de convergence raisonnable de ces paramètres les plus influents est atteint.Enfin, une nouvelle plateforme numérique basée sur l'apprentissage machine permettant d'estimer la pression artérielle spécifique au patient dans les artères cérébrales beaucoup plus rapidement qu'avec la procédure d'inversion mais avec la même précision, est présentée. L'application de cette plateforme aux données du patient utilisées dans la procédure d'inversion permet une estimation non invasive et en temps réel de la pression dans les artères cérébrales du patient cohérente avec l'estimation de la procédure d'inversion
This thesis follows on from a recent study conducted by a few researchers from University of Montpellier, with the aim of proposing to the scientific community an inversion procedure capable of noninvasively estimating patient-specific blood pressure in cerebral arteries. Its first objective is, on the one hand, to examine the accuracy and robustness of the inversion procedure proposed by these researchers with respect to various sources of uncertainty related to the models used, formulated assumptions and patient-specific clinical data, and on the other hand, to set a stopping criterion for the ensemble Kalman filter based algorithm used in their inversion procedure. For this purpose, uncertainty analysis and several sensitivity analyses are carried out. The second objective is to illustrate how machine learning, mainly focusing on convolutional neural networks, can be a very good alternative to the time-consuming and costly inversion procedure implemented by these researchers for cerebral blood pressure estimation.An approach taking into account the uncertainties related to the patient-specific medical images processing and the blood flow model assumptions, such as assumptions about boundary conditions, physical and physiological parameters, is first presented to quantify uncertainties in the inversion procedure outcomes. Uncertainties related to medical images segmentation are modelled using a Gaussian distribution and uncertainties related to modeling assumptions choice are analyzed by considering several possible hypothesis choice scenarii. From this approach, it emerges that the uncertainties on the procedure results are of the same order of magnitude as those related to segmentation errors. Furthermore, this analysis shows that the procedure outcomes are very sensitive to the assumptions made about the model boundary conditions. In particular, the choice of the symmetrical Windkessel boundary conditions for the model proves to be the most relevant for the case of the patient under study.Next, an approach for ranking the parameters estimated during the inversion procedure in order of importance and setting a stopping criterion for the algorithm used in the inversion procedure is presented. The results of this strategy show, on the one hand, that most of the model proximal resistances are the most important parameters for blood flow estimation in the internal carotid arteries and, on the other hand, that the inversion algorithm can be stopped as soon as a certain reasonable convergence threshold for the most influential parameter is reached.Finally, a new numerical platform, based on machine learning and allowing to estimate the patient-specific blood pressure in the cerebral arteries much faster than with the inversion procedure but with the same accuracy, is presented. The application of this platform to the patient-specific data used in the inversion procedure provides noninvasive and real-time estimate of patient-specific cerebral pressure consistent with the inversion procedure estimation
15

Zamoum, Selma. "Random access techniques for satellite communications." Thesis, Toulouse, INPT, 2019. http://www.theses.fr/2019INPT0116.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les nombreux avantages introduits par l’utilisation des satellites tels que la couverture à grande échelle, notamment dans les zones difficilement accessibles ou pauvres en infrastructure terrestres, a incité différentes communautés à développer des communications efficaces pour l’accès à Internet, la télévision et la téléphonie. Pendant longtemps, les techniques d’accès multiple basées sur la réservation de ressources (DAMA) ont largement été déployées sur la liaison retour, occupant ainsi une grande partie de la bande passante. Cependant, outre le temps aller-retour (RTT) additionnel dû à la demande d’allocation, qui est à la base important lors d’une communications par satellite, les ressources peuvent être sous-exploitées ou insuffisantes face à des applications entraînant un grand nombre d’utilisateurs telles que l’Internet des objets et les communications de machine à machine. Par conséquent, les techniques d’accès basées sur le protocole ALOHA ont largement pris place dans les études de recherche sur l’accès aléatoire (RA), et ont considérablement évolué ces derniers temps. La méthode CRDSA a particulièrement marqué ce domaine; elle a inspiré de nombreuses techniques d’accès aléatoire. Dans ce contexte, une méthode complémentaire, appelée MARSALA, permet de débloquer CRDSA lorsque celle-ci n’est plus en mesure de décoder de nouveaux paquets. Par contre, cela entraîne une complexité de corrélation liée à la localisation des paquets, qui est nécessaire pour combiner des répliques afin d’avoir une puissance de signal potentiellement plus élevée. C’est pourquoi, l’objectif principal de cette thèse est de proposer des alternatives efficientes et moins complexes. Nous nous intéressons plus précisément à la manière de gérer les transmissions multi-utilisateurs et de résoudre les interférences à la réception, avec la plus petite complexité. De plus, le phénomène de boucle qui se produit lorsque plusieurs utilisateurs transmettent leurs paquets dans les mêmes positions est traité, sachant qu’un plancher d’erreur au niveau des performances en taux de perte de paquets est par conséquent créé. Nous proposons donc des solutions synchrones et asynchrones, principalement basées sur un partage de données, au préalable, entre l’émetteur et le récepteur, dans le but de réduire la complexité de localisation, atténuer le phénomène de boucle et améliorer les performances du système. Ces techniques sont décrites et analysées en détails au cours de ce manuscrit
The effective coverage of satellites and the technology behind have motivated many actors to develop efficient communications for Internet access, television and telephony. For a long time, reservation resources of Demand Assignment Multiple Access (DAMA) techniques have been largely deployed in the return link of satellite communications, occupying most of the frequency bandwidth. However, these resources cannot follow the technological growth with big users communities in applications like the Internet of Things and Machine to Machine communications. Especially because the Round Trip Time is significant in addition to a potential underuse of the resources. Thus, access protocols based on ALOHA took over a big part of the Random Access (RA) research area and have considerably evolved lately. CRDSA have particularly put its fingerprint in this domain, which inspired many different techniques. In this context, a complementary method, called MARSALA comes to unlock CRDSA when packets can no longer be retrieved. This actually involves a correlation complexity related to packet localization which is necessary for replicas combinations that results in a potentially higher signal power. Accordingly, the main goal of this PhD research is to seek for effective and less complex alternatives. More precisely, the core challenge focuses on the way to manage multi-user transmissions and solve interference at reception, with the smallest complexity. In addition, the loop phenomenon which occur when multiple users transmit their packets at the same positions is tackled as it creates an error floor at the packet loss ratio performance. Synchronous and asynchronous solutions are proposed in this thesis, mainly based on providing the transmitter and the receiver with a shared prior information that could help reduce the complexity, mitigate the loop phenomenon and enhance the system performance. An in-depth description and analysis of the proposed techniques are presented in this dissertation
16

Alameddine, Asmaa. "Dysfonction vasculaire et conditions environnementales dans des modèles expérimentaux chez l’homme et l’animal." Thesis, Angers, 2015. http://www.theses.fr/2015ANGE0037/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La gravité est un facteur environnemental majeur. C’est cette force qui a façonné la vie et le fonctionnement de notre organisme est intimement lié à la gravité. Pour rester en bonne santé, nous devons bénéficier de l’influence quotidienne de la gravité et d’un apport alimentaire adapté à notre activité physique. L’objectif de ce travail de thèse est d’étudier le remodelage vasculaire et la dysfonction endothéliale dans des modèles de sédentarité et de troubles métaboliques ainsi que d’explorer des moyens de contre mesures. Un alitement de 60 jours chez des sujets sains masculins induit un remodelage de la macrocirculation au niveau de l’artère fémorale ainsi qu’une dysfonction endothéliale au niveau de la microcirculation. La prise quotidienne d’extraits végétaux complexes issus de la médecine traditionnelle chinoise (Taikong Yangxin) a permis de prévenir l’atteinte endothéliale.Dans un modèle de rat diabétique avec atteinte vasculaire (rats GK),nous avons testé le salidroside, important composé issus du Taikong Yangxin. Bien qu’il n’ait pas d’effets sur le diabète, cecomposé a montré un effet bénéfique sur la vasodilatation endothéliale -dépendante et -indépendante. Dans une dernière partie nous avons étudié chez la souris l’implication du récepteur de type 2 à l’angiotensine et des récepteurs aux estrogènes dans les dysfonctions cardiovasculaires induite par une alimentation hypercalorique. L’inactivité physique induit un remodelage morphologique et fonctionnel au niveau de l’arbre vasculaire ce qui en fait un facteur de risque majeur et indépendant des maladies cardio-vasculaires. Des extraits végétaux simples ou complexes ont des effets bénéfiques sur les fonctions endothéliales. Le récepteur de type 2 à l’angiotensine et ses interactions possibles avec le récepteur aux oestrogènes pourrait être une cible pharmacologique comme contre mesure des atteintes vasculaires liées à l’environnement
Gravity is a major environmental factor. This force that shaped the life and the functioning of our body is closely related to gravity. To remain healthy, we should benefit from the daily influence of gravity and a food intake adapted to our physical activity. The objective of this thesis is to study vascular remodeling and endothelial dysfunction in sedentary models and metabolic disorders and to explore ways of countermeasures. 60 days of head down bed rest in healthy male induce a macrocirculation remodeling at the femoral artery and an endothelial dysfunction at the microcirculation level. Daily intake of complex plant extracts from traditional Chinese medicine (Taikong Yangxin) helped to prevent endothelial dysfunction. In a diabetic rat model with vascular dysfunction (GK rats), we tested the salidroside, an important compound from the Taikong Yangxin. Although it has no effect on diabetes, this compound showed a beneficial effect on endothelial -dependent and -independent vasodilation. In the last part of our work, we studied the involvement of type 2 angiotensin receptor and estrogen receptor in cardiovascular dysfunction induced by a high calorie diet in mice. Physical inactivity induces morphological and functional remodeling in the vascular tree, making it a major risk factor independent of cardiovascular diseases. Simple or complex plant extracts have beneficial effects on endothelial function. Angiotensin type 2 receptor and its interaction with the estrogen receptor could be a pharmacological target as a countermeasure against vascular damage related to the environment
17

Yaacoub, Tina. "Nouvelles approches pour l'estimation du canal ultra-large bande basées sur des techniques d'acquisition compressée appliquées aux signaux à taux d'innovation fini IR-UWB." Thesis, Brest, 2017. http://www.theses.fr/2017BRES0077/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La radio impulsionnelle UWB (IR-UWB) est une technologie de communication relativement récente, qui apporte une solution intéressante au problème de l’encombrement du spectre RF, et qui répond aux exigences de haut débit et localisation précise d’un nombre croissant d’applications, telles que les communications indoor, les réseaux de capteurs personnels et corporels, l’IoT, etc. Ses caractéristiques uniques sont obtenues par la transmission d’impulsions de très courte durée (inférieure à 1 ns), occupant une largeur de bande allant jusqu’à 7,5 GHz, et ayant une densité spectrale de puissance extrêmement faible (inférieure à -43 dBm/MHz). Les meilleures performances d’un système IR-UWB sont obtenues avec des récepteurs cohérents de type Rake, au prix d’une complexité accrue, due notamment à l’étape d’estimation du canal UWB, caractérisé par de nombreux trajets multiples. Cette étape de traitement nécessite l’estimation d’un ensemble de composantes spectrales du signal reçu, sans pouvoir faire appel aux techniques d’échantillonnage usuelles, en raison d’une limite de Nyquist particulièrement élevée (plusieurs GHz).Dans le cadre de cette thèse, nous proposons de nouvelles approches, à faible complexité, pour l’estimation du canal UWB, basées sur la représentation parcimonieuse du signal reçu, la théorie de l’acquisition compressée, et les méthodes de reconstruction des signaux à taux d’innovation fini. La réduction de complexité ainsi obtenue permet de diminuer de manière significative le coût d’implémentation du récepteur IR-UWB et sa consommation. D’abord, deux schémas d’échantillonnage compressé, monovoie (filtre SoS) et multivoie (MCMW) identifiés dans la littérature sont étendus au cas des signaux UWB ayant un spectre de type passe-bande, en tenant compte de leur implémentation réelle dans le circuit. Ces schémas permettent l’acquisition des coefficients spectraux du signal reçu et l’échantillonnage à des fréquences très réduites ne dépendant pas de la bande passante des signaux, mais seulement du nombre des trajets multiples du canal UWB. L’efficacité des approches proposées est démontrée au travers de deux applications : l’estimation du canal UWB pour un récepteur Rake cohérent à faible complexité, et la localisation précise en environnement intérieur dans un contexte d’aide à la dépendance.En outre, afin de réduire la complexité de l’approche multivoie en termes de nombre de voies nécessaires pour l’estimation du canal UWB, nous proposons une architecture à nombre de voies réduit, en augmentant le nombre d’impulsions pilotes émises.Cette même approche permet aussi la réduction de la fréquence d’échantillonnage associée au schéma MCMW. Un autre objectif important de la thèse est constitué par l’optimisation des performances des approches proposées. Ainsi, bien que l’acquisition des coefficients spectraux consécutifs permette une mise en oeuvre simple des schémas multivoie, nous montrons que les coefficients ainsi choisis, ne donnent pas les performances optimales des algorithmes de reconstruction. Ainsi, nous proposons une méthode basée sur la cohérence des matrices de mesure qui permet de trouver l’ensemble optimal des coefficients spectraux, ainsi qu’un ensemble sous-optimal contraint où les positions des coefficients spectraux sont structurées de façon à faciliter la conception du schéma MCMW. Enfin, les approches proposées dans le cadre de cette thèse sont validées expérimentalement à l’aide d’une plateforme expérimentale UWB du laboratoire Lab-STICC CNRS UMR 6285
Ultra-wideband impulse radio (IR-UWB) is a relatively new communication technology that provides an interesting solution to the problem of RF spectrum scarcity and meets the high data rate and precise localization requirements of an increasing number of applications, such as indoor communications, personal and body sensor networks, IoT, etc. Its unique characteristics are obtained by transmitting pulses of very short duration (less than 1 ns), occupying a bandwidth up to 7.5 GHz, and having an extremely low power spectral density (less than -43 dBm / MHz). The best performances of an IR-UWB system are obtained with Rake coherent receivers, at the expense of increased complexity, mainly due to the estimation of UWB channel, which is characterized by a large number of multipath components. This processing step requires the estimation of a set of spectral components for the received signal, without being able to adopt usual sampling techniques, because of the extremely high Nyquist limit (several GHz).In this thesis, we propose new low-complexity approaches for the UWB channel estimation, relying on the sparse representation of the received signal, the compressed sampling theory, and the reconstruction of the signals with finite rate of innovation. The complexity reduction thus obtained makes it possible to significantly reduce the IR-UWB receiver cost and consumption. First, two existent compressed sampling schemes, single-channel (SoS) and multi-channel (MCMW), are extended to the case of UWB signals having a bandpass spectrum, by taking into account realistic implementation constraints. These schemes allow the acquisition of the spectral coefficients of the received signal at very low sampling frequencies, which are not related anymore to the signal bandwidth, but only to the number of UWB channel multipath components. The efficiency of the proposed approaches is demonstrated through two applications: UWB channel estimation for low complexity coherent Rake receivers, and precise indoor localization for personal assistance and home care.Furthermore, in order to reduce the complexity of the MCMW approach in terms of the number of channels required for UWB channel estimation, we propose a reduced number of channel architecture by increasing the number of transmitted pilot pulses. The same approach is proven to be also useful for reducing the sampling frequency associated to the MCMW scheme.Another important objective of this thesis is the performance optimization for the proposed approaches. Although the acquisition of consecutive spectral coefficients allows a simple implementation of the MCMW scheme, we demonstrate that it not results in the best performance of the reconstruction algorithms. We then propose to rely on the coherence of the measurement matrix to find the optimal set of spectral coefficients maximizing the signal reconstruction performance, as well as a constrained suboptimal set, where the positions of the spectral coefficients are structured so as to facilitate the design of the MCMW scheme. Finally, the approaches proposed in this thesis are experimentally validated using the UWB equipment of Lab-STICC CNRS UMR 6285
18

HADDAD, Salim. "Récepteur itératifs : ordonnancement, convergence et complexité." Phd thesis, 2012. http://tel.archives-ouvertes.fr/tel-00821905.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le traitement itératif est actuellement largement répandu dans les récepteurs sans fil modernes pour le décodage des codes de canal avancés. L'extension de ce principe avec l'ajout d'une boucle de rétroaction vers l'égaliseur et le demappeur a montré d'excellentes performances dans des conditions sévères de canaux de transmission (effacement, multi-trajets, modèles réels de canaux à évanouissements). Toutefois, l'adoption du traitement itératif avec du turbo décodage est fortement limitée par la complexité d'implémentation engendrée, qui impacte fortement sur le débit, la latence et la consommation. Pour faire face à ces problèmes et permettre l'adoption généralisée du traitement itératif, de nouvelles techniques d'optimisation au niveau système doivent être exploitées. Dans ce travail, nous avons étudié la vitesse de convergence et la complexité au niveau système des récepteurs avancés combinant plusieurs processus itératifs. La première partie de cette thèse a été axée sur l'étude de la combinaison de la démodulation itérative avec du turbo décodage, tandis que la deuxième partie a étendu cette étude vers les récepteurs itératifs MIMO en appliquant de la turbo égalisation, de la turbo démodulation et du turbo décodage. Plusieurs techniques de communication et paramètres système, tels que spécifiés dans les applications émergentes de communication sans fil, ont été pris en compte. De nouveaux ordonnancements des itérations pour les boucles de rétroaction internes et externes ont été proposés pour améliorer la convergence et réduire la complexité globale en termes d'opérations arithmétiques et d'accès mémoire. En outre, l'analyse effectuée et les ordonnancements proposés démontrent l'efficacité des boucles de rétroaction externes, même en termes de complexité, par rapport aux récepteurs classiques non itératifs. Ces résultats ont permis la proposition de nouveaux récepteurs itératifs à complexité adaptative appliquant du turbo décodage, de la turbo démodulation et de la turbo égalisation.

До бібліографії