Gotowa bibliografia na temat „Applications à faible latence”

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Zobacz listy aktualnych artykułów, książek, rozpraw, streszczeń i innych źródeł naukowych na temat „Applications à faible latence”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Artykuły w czasopismach na temat "Applications à faible latence"

1

MARINO, I., E. FERRAND DEVOUGE, E. GOUPILLE, T. PRESSAT LAFFOUILHERE, H. VAILLANT i R. BOUSSAGEON. "Revue systématique de la littérature évaluant l’efficacité du lorazépam dans le traitement de l’insomnie primaire et secondaire". EXERCER 35, nr 203 (1.05.2024): 222–29. http://dx.doi.org/10.56746/exercer.2024.203.222.

Pełny tekst źródła
Streszczenie:
Contexte. Un tiers des patients consultant un médecin généraliste ont déjà eu des épisodes d’insomnie. Les benzodiazépines et apparentées sont les médicaments les plus utilisés pour cette pathologie. Le lorazépam n’a pas d’autorisation de mise sur le marché dans le traitement de l’insomnie primaire, mais peut être utilisé en cas d’insomnie secondaire. Objectif. Évaluer l’efficacité du lorazépam dans le traitement de l’insomnie, primaire et secondaire. Méthodes. Une revue systématique de la littérature a été menée selon les recommandations PRISMA, à partir des bases de données Medline®, Embase®, Cochrane® et ClinicalTrials.gov. Ont été inclus les essais contrôlés randomisés (ECR) comparant le lorazépam à un placebo ou à d’autres benzodiazépines ou molécules apparentées, chez des patients souffrant d’insomnie seule ou associée à d’autres pathologies. Le critère de jugement principal était la qualité du sommeil ; les critères de jugement secondaires étaient la latence d’endormissement, le nombre de réveils et la tolérance. Les risques de biais ont été évalués par l’outil de la Cochrane ROB 2. Une analyse complémentaire sur le caractère confirmatoire des résultats a été réalisée. Résultats. Sur 1 865 références, 4 ECR ont été inclus. Tous évaluaient l’insomnie secondaire. Le premier ECR concernait 18 patients post-accident vasculaire cérébral suivis 7 jours ; le deuxième concernait 20 patientes de géronto-psychiatrie suivies 7 jours ; le troisième 120 patients dépressifs suivis 8 semaines ; le quatrième ECR concernait 44 patients anxieux suivis 28 jours. La qualité du sommeil, évaluée dans le premier, le troisième et le quatrième ECR, était améliorée dans les deux derniers. Le deuxième ECR évaluait la latence d’endormissement et le nombre de réveils nocturnes, sans montrer d’amélioration. Le risque de biais était élevé pour toutes les études. Conclusion. En raison du faible nombre d’études, de leur qualité méthodologique discutable, de leur diversité, il est impossible de conclure sur l’efficacité du lorazépam dans l’insomnie primaire ou secondaire.
Style APA, Harvard, Vancouver, ISO itp.
2

Perry, Roland, Richard Rolfe i David Wharton. "Electrophysiological activity during recovery from anhydrobiosis in fourth stage juveniles of Ditylenchus dipsaci". Nematology 2, nr 8 (2000): 881–86. http://dx.doi.org/10.1163/156854100750112824.

Pełny tekst źródła
Streszczenie:
AbstractUpon immersion in water, anhydrobiotic nematodes display a period of apparent inactivity, the lag phase, before they commence spontaneous movement. Following a period of desiccation of the fourth stage juveniles of the plant-parasitic nematode Ditylenchus dipsaci, electrical activity during rehydration was recorded using glass microelectrodes inserted into individual nematodes. The pattern observed was a period of no electrical activity, followed by low amplitude electrical events and then also high amplitude events. Movement of the nematode was associated with the high amplitude events, whose recordings formed trains of spikes that coincided with the activity of the nematode. The lag phase represents a period during which the physiological functions of the nerves and muscles are restored. This may involve the restoration of ionic gradients between the inside and the outside of the cells, which is reflected in an increase in spike amplitude in those nematodes where a sustained period of high amplitude activity was recorded. Activité électrophysiologique durant la sortie d'anhydrobiose chez le quatrième stade juvénile de Ditylenchus dipsaci - Immergés dans l'eau, les nématodes anhydrobiotiques passent par une période d'inactivité apparente - la phase de latence - avant que des mouvements spontanés ne débutent. Pendant la réhydratation qui suivait une période de dessication l'activité électrique de juvéniles de quatrième stade de Ditylenchus dipsaci a été enregistrée grâce à des microélectrodes de verre implantées dans le nématode. La courbe observée correspondait à une période sans activité électrique, suivie par des phénomènes électriques de faible amplitude, combinés ensuite à des phénomènes de forte amplitude. Les mouvements des nématodes étaient associés aux phénomènes de forte amplitude dont le tracé consiste en une suite de pics coïncidant avec l'activité du nématode. La phase de latence correspond à la période pendant laquelle les fonctions physiologiques nerveuses et musculaires sont restaurées. Cela peut englober la restauration des gradients ioniques à l'intérieur et à l'extérieur des cellules, phénomène reflété par une augmentation des pics chez ceux des nématodes où une période soutenue d'activité de forte amplitude a été notée.
Style APA, Harvard, Vancouver, ISO itp.
3

Le Blanc, Marc, Pierre McDuff i Richard E. Tremblay. "Types de familles, conditions de vie, fonctionnement du système familial et inadaptation sociale au cours de la latence et de l’adolescence dans les milieux défavorisés". Santé mentale au Québec 16, nr 1 (11.09.2007): 45–75. http://dx.doi.org/10.7202/032203ar.

Pełny tekst źródła
Streszczenie:
RÉSUMÉ Les données manquent concernant l'impact de certains types de familles, et les résultats sont souvent discordants concernant l'inadaptation. Après avoir décrit les variations de l'activité délictueuse et des troubles de comportement selon les types de familles, nous analysons les difficultés de fonctionnement du système familial. Six types de familles sont comparés pour 763 garçons de 10 ans, 319 adolescentes et 426 adolescents de 14 et 15 ans: les familles intactes, les familles monoparentales patricentriques et matricentriques, les familles recomposées patricentriques et matricentriques et les familles substituts. Les données présentées montrent qu'en cette fin des années 1980, près de 40 % des enfants et des adolescents des quartiers à faible statut socio-économique de Montréal vivent dans des familles désunies. Les données confirment en outre une observation classique: les familles désunies, en comparaison aux familles intactes, sont défavorisées sur le plan des conditions de vie, déficientes sur le plan du fonctionnement psychosocial et propices aux troubles de comportement et à l'activité délictueuse. Par ailleurs, il est établi que certains types de familles désunies constituent un facteur de risque considérable. L'effet dommageable de la structure de la famille s'accroît dans l'ordre suivant: familles intactes, familles monoparentales matricentriques, familles recomposées matricentriques, familles substituts, familles recomposées patricentriques et familles monoparentales patricentriques. Pour terminer, quelques pistes d'intervention pour la prévention des difficultés comportementales et familiales sont proposées.
Style APA, Harvard, Vancouver, ISO itp.
4

Rey, Lucas, Ana M. Bernardos, Andrzej D. Dobrzycki, David Carramiñana, Luca Bergesio, Juan A. Besada i José Ramón Casar. "A Performance Analysis of You Only Look Once Models for Deployment on Constrained Computational Edge Devices in Drone Applications". Electronics 14, nr 3 (6.02.2025): 638. https://doi.org/10.3390/electronics14030638.

Pełny tekst źródła
Streszczenie:
Advancements in embedded systems and Artificial Intelligence (AI) have enhanced the capabilities of Unmanned Aircraft Vehicles (UAVs) in computer vision. However, the integration of AI techniques o-nboard drones is constrained by their processing capabilities. In this sense, this study evaluates the deployment of object detection models (YOLOv8n and YOLOv8s) on both resource-constrained edge devices and cloud environments. The objective is to carry out a comparative performance analysis using a representative real-time UAV image processing pipeline. Specifically, the NVIDIA Jetson Orin Nano, Orin NX, and Raspberry Pi 5 (RPI5) devices have been tested to measure their detection accuracy, inference speed, and energy consumption, and the effects of post-training quantization (PTQ). The results show that YOLOv8n surpasses YOLOv8s in its inference speed, achieving 52 FPS on the Jetson Orin NX and 65 fps with INT8 quantization. Conversely, the RPI5 failed to satisfy the real-time processing needs in spite of its suitability for low-energy consumption applications. An analysis of both the cloud-based and edge-based end-to-end processing times showed that increased communication latencies hindered real-time applications, revealing trade-offs between edge (low latency) and cloud processing (quick processing). Overall, these findings contribute to providing recommendations and optimization strategies for the deployment of AI models on UAVs.
Style APA, Harvard, Vancouver, ISO itp.
5

Shayeb, H., T. Riabit, M. Roustan i A. Hassan. "Étude expérimentale et modélisation de la désinfection par le chlore des eaux usées épurées". Revue des sciences de l'eau 11, nr 4 (12.04.2005): 517–36. http://dx.doi.org/10.7202/705319ar.

Pełny tekst źródła
Streszczenie:
Pour étudier la désinfection d'une eau usée épurée au stade secondaire, traitée à l'hypochlorite de sodium, des essais en réacteur fermé ont été effectués en utilisant des doses variant entre 1 et 10 mg de chlore par litre. Les résultats obtenus montrent que la cinétique de désinfection est loin d'être uniforme. L'utilisation du modèle de Chick et Watson n'est en effet possible que si on l'adapte pour tenir compte de la modification de la vitesse de désinfection au cours du processus. Le modèle de Collins et Selleck permet de rendre compte de façon satisfaisante de l'évolution de la vitesse d'élimination des germes au cours du temps. La faible valeur du paramètre t trouvée (0.26 min.mg/l pour les coliformes totaux et 0.58 min.mg/l pour les coliformes fécaux) semble cependant démontrer que la période de latence est relativement peut importante surtout lorsqu'on utilise des dose de chlore élevées. Il s'avère d'autre part que la demande en chlore de ce type d'eau est très importante. La concentration en chlore résiduel dans le réacteur décroît très rapidement pour atteindre environs 10 % de la dose de chlore injectée et cela quelle que soit la dose utilisée (de 1 à 10 mg/l). Le dimensionnement des réacteurs de désinfection fonctionnant en continu nécessite de prendre en compte le comportement hydrodynamique de l'eau dans le réacteur. Sachant qu'un abattement de 3 U-Log est nécessaire, dans le cas de la réutilisation de l'eau pour l'irrigation, un modèle intégrant l'expression de la cinétique de désinfection et l'hydrodynamique du contacteur a été proposé. Les résultats mettent en évidence l'intérêt de concevoir des réacteurs se rapprochant le plus possible de l'écoulement piston.
Style APA, Harvard, Vancouver, ISO itp.
6

Ananda Ravuri. "Machine Learning-based Distributed Big data Analytics Framework for IoT Applications". Journal of Electrical Systems 20, nr 3 (13.05.2024): 1788–802. http://dx.doi.org/10.52783/jes.3672.

Pełny tekst źródła
Streszczenie:
The emerging trend of the Internet of Things (IoT) leads to more real-time applications and it raises the accumulation of more structured and unstructured data. The processing of unstructured and structured data for different distributed applications becomes arduous. Moreover, the accuracy, load balancing, and latency of the services are also challenging. Some of the state-of-art works failed to achieve those parameters. In context with these, we proposed a machine learning-based novel approach that utilizes an SVM classifier. The SVM classifier can be used for the classification and data analytic purposes of features extracted from the data processing step. Data processing employs two steps such as data extraction and data scaling. The data extraction is performed by the adoption of the Principal Component Discriminant power-based Linear Discriminant analysis (PCDP-LDA) technique. The big data framework of the proposed model is evaluated using a tool called Weka. Meanwhile, the data scaling is performed by the Naïve Bayes approach and divides the extracted features into blocks. Experimental analysis is performed and compared with existing approaches. Our proposed approach provides more effective classification and data analytic accuracy than the other approaches. Our approach also provides better latency, and load balancing of data in the distributed big data analysis.
Style APA, Harvard, Vancouver, ISO itp.
7

Ananda Ravuri. "Machine Learning-based Distributed Big data Analytics Framework for IoT Applications". Journal of Electrical Systems 20, nr 7s (4.05.2024): 1949–63. http://dx.doi.org/10.52783/jes.3913.

Pełny tekst źródła
Streszczenie:
The emerging trend of the Internet of Things (IoT) leads to more real-time applications and it raises the accumulation of more structured and unstructured data. The processing of unstructured and structured data for different distributed applications becomes arduous. Moreover, the accuracy, load balancing, and latency of the services are also challenging. Some of the state-of-art works failed to achieve those parameters. In context with these, we proposed a machine learning-based novel approach that utilizes an SVM classifier. The SVM classifier can be used for the classification and data analytic purposes of features extracted from the data processing step. Data processing employs two steps such as data extraction and data scaling. The data extraction is performed by the adoption of the Principal Component Discriminant power-based Linear Discriminant analysis (PCDP-LDA) technique. The big data framework of the proposed model is evaluated using a tool called Weka. Meanwhile, the data scaling is performed by the Naïve Bayes approach and divides the extracted features into blocks. Experimental analysis is performed and compared with existing approaches. Our proposed approach provides more effective classification and data analytic accuracy than the other approaches. Our approach also provides better latency, and load balancing of data in the distributed big data analysis.
Style APA, Harvard, Vancouver, ISO itp.
8

Riviere, Nicolas, i Paul-Édouard Dupouy. "Perception lidar 3D pour l’aide à la conduite autonome". Photoniques, nr 115 (8.08.2022): 28–33. http://dx.doi.org/10.1051/photon/202211528.

Pełny tekst źródła
Streszczenie:
Le LiDAR 3D est une technique d’imagerie active qui délivre une information tridimensionnelle des objets en haute résolution. Elle bénéficie de nombreux avantages comme la faible sensibilité à l’éclairement naturel ou à l’environnement opérationnel pour des applications de navigation autonome ou de cartographie précise.
Style APA, Harvard, Vancouver, ISO itp.
9

Hokello, Joseph, Adhikarimayum Lakhikumar Sharma i Mudit Tyagi. "Combinatorial Use of Both Epigenetic and Non-Epigenetic Mechanisms to Efficiently Reactivate HIV Latency". International Journal of Molecular Sciences 22, nr 7 (2.04.2021): 3697. http://dx.doi.org/10.3390/ijms22073697.

Pełny tekst źródła
Streszczenie:
The persistence of latent HIV provirus pools in different resting CD4+ cell subsets remains the greatest obstacle in the current efforts to treat and cure HIV infection. Recent efforts to purge out latently infected memory CD4+ T-cells using latency-reversing agents have failed in clinical trials. This review discusses the epigenetic and non-epigenetic mechanisms of HIV latency control, major limitations of the current approaches of using latency-reversing agents to reactivate HIV latency in resting CD4+ T-cells, and potential solutions to these limitations.
Style APA, Harvard, Vancouver, ISO itp.
10

Abekiri, Najib. "Laboratoire à faible coût pour l’enseignement pratique à distance". Projectics / Proyéctica / Projectique 33, nr 1 (29.12.2022): 65–73. http://dx.doi.org/10.3917/proj.033.0065.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
Więcej źródeł

Rozprawy doktorskie na temat "Applications à faible latence"

1

Ky, Joël Roman. "Anomaly Detection and Root Cause Diagnosis for Low-Latency Applications in Time-Varying Capacity Networks". Electronic Thesis or Diss., Université de Lorraine, 2025. http://www.theses.fr/2025LORR0026.

Pełny tekst źródła
Streszczenie:
L'évolution des réseaux a conduit à l'émergence d'applications à faible latence (FL) telles que le cloud gaming (CG) et la réalité virtuelle basée sur le cloud (Cloud VR), qui exigent des conditions réseau strictes, notamment une faible latence et une bande passante élevée. Cependant, les réseaux à capacité variable introduisent des dégradations, telles que du délai, des fluctuations de bande passante et des pertes de paquets, qui peuvent significativement altérer l'expérience utilisateur sur les applications FL. Cette thèse vise à concevoir des méthodologies pour détecter et diagnostiquer les anomalies de performance des applications FL fonctionnant sur des réseaux cellulaires et Wi-Fi. Pour atteindre cet objectif, des bancs d'essai expérimentaux réalistes ont été mis en place pour collecter des bases de données caractérisant les performances du réseau et capturant les indicateurs clés de performance (KPI) des applications CG et Cloud VR dans des environnements 4G et Wi-Fi. Ces données constituent la base de l'évaluation et du développement d'algorithmes de détection d'anomalies et de diagnostic basés sur l'apprentissage automatique. Les principales contributions de cette thèse incluent le développement de CATS, une solution de détection d'anomalies basé sur l'apprentissage contrastif, capable d'identifier efficacement les dégradations de l'expérience utilisateur dans les applications CG tout en restant robuste face à la contamination des données. De plus, cette thèse introduit RAID, un système de diagnostic en deux étapes conçu pour identifier les causes racines des problèmes de performance dans le Cloud VR. RAID a démontré une grande efficacité dans le diagnostic des dégradations Wi-Fi, même avec un nombre limité de données annotées. Les résultats de ce travail font progresser les domaines de la détection d'anomalies et du diagnostic des causes racines, offrant des perspectives concrètes aux opérateurs de réseaux pour optimiser les performances de leurs réseaux et améliorer la fiabilité des services et mieux supporter les applications FL, qui sont appelées à révolutionner les technologies de communication et à stimuler l'innovation dans de nombreuses industries
The evolution of networks has driven the emergence of low-latency (LL) applications such as cloud gaming (CG) and cloud virtual reality (Cloud VR), which demand stringent network conditions, including low latency and high bandwidth. However, time-varying capacity networks introduce impairments such as delays, bandwidth fluctuations, and packet loss, which can significantly degrade user experience on LL applications. This research aims to design methodologies for detecting and diagnosing performance anomalies in LL applications operating over cellular and Wi- Fi networks. To achieve this, realistic experimental testbeds were established to collect datasets that characterize network performance and capture key performance indicators (KPIs) of CG and Cloud VR applications over 4G and Wi-Fi environments. These datasets serve as the foundation for evaluating and developing machine learning-based anomaly detection and diagnostic frameworks. The key contributions of this thesis include the development of CATS, a contrastive learning-based anomaly detection framework capable of efficiently identifying user experience degradation in CG applications while remaining robust to data contamination. Additionally, this research introduces RAID, a two-stage root causes diagnosis framework designed to pinpoint the root causes of performance issues in Cloud VR. RAID demonstrated high efficiency in diagnosing Wi-Fi impairments, even with limited labeled data. The findings of this work advance the fields of anomaly detection and root cause diagnosis, offering actionable insights for network operators to optimize network performance and enhance service reliability to support LL applications, which are set to revolutionize communication technologies and drive innovation across various industries
Style APA, Harvard, Vancouver, ISO itp.
2

Aguilar, Melchior Carlos. "Les communications anonymes à faible latence". Phd thesis, INSA de Toulouse, 2006. http://tel.archives-ouvertes.fr/tel-00110313.

Pełny tekst źródła
Streszczenie:
Dans ce mémoire nous proposons des systèmes de communication anonyme à faible latence. Pour cela nous étudions les performances des systèmes basés sur les primitives classiques : envoi superposé ou bourrage chiffré pour l'émission, et diffusion avec adressage implicite pour la réception, quand les groupes d'utilisateurs potentiels sont contraints à être de petite taille, peu changeants, ou localisés. Nous proposons l'utilisation des protocoles de récupération d'informations privée (ou protocoles PIR pour Private Information Retrieval) comme alternative à la diffusion avec adressage implicite, et nous étudions les systèmes en résultant. Ces systèmes permettent de réduire significativement le coût des communications, au prix d'un coût calculatoire important. Au moyen d'exemples, nous montrons que ces nouvelles solutions offrent un meilleur choix dans certaines situations, notamment pour les utilisateurs connectés au service par Internet. Dans un deuxième temps, nous mettons en avant les relations entre les différentes techniques et montrons que les systèmes basés sur les primitives classiques ne sont en fait que des instances d'une famille qui, par l'utilisation de la récupération d'informations privée, devient nombreuse et polyvalente. Ainsi, on dispose de beaucoup plus de degrés de liberté pour l'implémentation de solutions fournissant des communications anonymes dans le cadre des groupes d'utilisateurs sous contraintes.
Style APA, Harvard, Vancouver, ISO itp.
3

Aguilar, Melchor Carlos. "Les communications anonymes à faible latence". Toulouse, INSA, 2006. http://www.theses.fr/2006ISAT0021.

Pełny tekst źródła
Streszczenie:
Dans ce mémoire nous proposons des systèmes de communication anonyme à faible latence. Pour cela nous étudions les performances des systèmes basés sur les primitives classiques : envoi superposé ou bourrage chiffré pour l'émission, et diffusion avec adressage implicite pour la réception, quand les groupes d'utilisateurs potentiels sont contraints à être de petite taille, peu changeants, ou localisés. Nous proposons l'utilisation des protocoles de récupération d'informations privée (ou protocoles PIR pour Private Information Retrieval) comme alternative à la diffusion avec adressage implicite, et nous étudions les systèmes en résultant. Ces systèmes permettent de réduire significativement le coût des communications, au prix d'un coût calculatoire important. Au moyen d'exemples, nous montrons que ces nouvelles solutions offrent un meilleur choix dans certaines situations, notamment pour les utilisateurs connectés au service par Internet. Dans un deuxième temps, nous mettons en avant les relations entre les différentes techniques et montrons que les systèmes basés sur les primitives classiques ne sont en fait que des instances d'une famille qui, par l'utilisation de la récupération d'informations privée, devient nombreuse et polyvalente. Ainsi, on dispose de beaucoup plus de degrés de liberté pour l'implémentation de solutions fournissant des communications anonymes dans le cadre des groupes d'utilisateurs sous contraintes
In this thesis, we present different systems providing low-latency anonymous communications. We first study the performance of systems based on well known primitives such as superposed sending and encrypted padding for transmission, and broadcast with implicit addressing for reception, when the group of potential users is restricted to be small, closed, or localized. We propose the usage of Private Information Retrieval (PIR) protocols as an alternative to broadcast with implicit addressing, and we study the resulting systems. These systems allow us to trade communication cost, for computational cost. Through some examples, we show that the new solutions offer a better choice in some situations, specially when the users are connected to the service through the Internet. Then, we put forward how the different approaches are related, and show that the systems based on classic primitives are in fact just some instances of a family, which becomes much larger and versatile through the introduction of PIR protocols
Style APA, Harvard, Vancouver, ISO itp.
4

Flocon-Cholet, Joachim. "Classification audio sous contrainte de faible latence". Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1S030/document.

Pełny tekst źródła
Streszczenie:
Cette thèse porte sur la classification audio sous contrainte de faible latence. La classification audio est un sujet qui a beaucoup mobilisé les chercheurs depuis plusieurs années. Cependant, on remarque qu’une grande majorité des systèmes de classification ne font pas état de contraintes temporelles : le signal peut être parcouru librement afin de rassembler les informations nécessaires pour la prise de décision (on parle alors d’une classification hors ligne). Or, on se place ici dans un contexte de classification audio pour des applications liées au domaine des télécommunications. Les conditions d’utilisation sont alors plus sévères : les algorithmes fonctionnent en temps réel et l’analyse du signal et le traitement associé se font à la volée, au fur et à mesure que le signal audio est transmis. De fait, l’étape de classification audio doit également répondre aux contraintes du temps réel, ce qui affecte son fonctionnement de plusieurs manières : l’horizon d’observation du signal se voit nécessairement réduit aux instants présents et à quelques éléments passés, et malgré cela, le système doit être fiable et réactif. Dès lors, la première question qui survient est : quelle stratégie de classification peut-on adopter afin de faire face aux exigences du temps réel ? On retrouve dans littérature deux grandes approches permettant de répondre à des contraintes temporelles plus ou moins fortes : la classification à la trame et la classification sur segment. Dans le cadre d’une classification à la trame, la décision est prise en se basant uniquement sur des informations issues de la trame audio courante. La classification sur segment, elle, exploite une information court-terme en utilisant les informations issues de la trame courante et de quelques trames précédentes. La fusion des données se fait via un processus d’intégration temporelle qui consiste à extraire une information pertinente basée sur l’évolution temporelle des descripteurs audio. À partir de là, on peut s’interroger pour savoir quelles sont les limites de ces stratégies de classification ? Une classification à la trame et une classification sur segment peuvent-elles être utilisées quel que soit le contexte ? Est-il possible d’obtenir des performances convenables avec ces deux approches ? Quelle mode de classification permet de produire le meilleur rapport entre performance de classification et réactivité ? Aussi, pour une classification sur segment, le processus d’intégration temporelle repose principalement sur des modélisation statistiques mais serait-il possible de proposer d’autres approches ? L’exploration de ce sujet se fera à travers plusieurs cas d’étude concrets. Tout d’abord, dans le cadre des projets de recherche à Orange Labs, nous avons pu contribuer au développement d’un nouvel algorithme de protection acoustique, visant à supprimer très rapidement des signaux potentiellement dangereux pour l’auditeur. La méthode mise au point, reposant sur la proposition de trois descripteurs audio, montre un taux de détection élevé tout en conservant un taux de fausse alarme très bas, et ce, quelles que soient les conditions d’utilisation. Par la suite, nous nous sommes intéressés plus en détail à l’utilisation de l’intégration temporelle des descripteurs dans un cadre de classification audio faible latence. Pour cela, nous avons proposé et évalué plusieurs méthodologies d’utilisation de l’intégration temporelle permettant d’obtenir le meilleur compromis entre performance globale et réactivité. Enfin, nous proposons une autre manière d’exploiter l’information temporelle des descripteurs. L’approche proposée s’appuie sur l’utilisation des représentations symboliques permettant de capter la structure temporelle des séries de descripteurs. L’idée étant ensuite de rechercher des motifs temporels caractéristiques des différentes classes audio. Les expériences réalisées montrent le potentiel de cette approche
This thesis focuses on audio classification under low-latency constraints. Audio classification has been widely studied for the past few years, however, a large majority of the existing work presents classification systems that are not subject to temporal constraints : the audio signal can be scanned freely in order to gather the needed information to perform the decision (in that case, we may refer to an offline classification). Here, we consider audio classification in the telecommunication domain. The working conditions are now more severe : algorithms work in real time and the analysis and processing steps are now operated on the fly, as long as the signal is transmitted. Hence, the audio classification step has to meet the real time constraints, which can modify its behaviour in different ways : only the current and the past observations of the signal are available, and, despite this fact the classification system has to remain reliable and reactive. Thus, the first question that occurs is : what strategy for the classification can we adopt in order to tackle the real time constraints ? In the literature, we can find two main approaches : the frame-level classification and the segment-level classification. In the frame-level classification, the decision is performed using only the information extracted from the current audio frame. In the segment-level classification, we exploit a short-term information using data computed from the current and few past frames. The data fusion here is obtained using the process of temporal feature integration which consists of deriving relevant information based on the temporal evolution of the audio features. Based on that, there are several questions that need to be answered. What are the limits of these two classification framework ? Can an frame-level classification and a segment-level be used efficiently for any classification task ? Is it possible to obtain good performance with these approaches ? Which classification framework may lead to the best trade-off between accuracy and reactivity ? Furthermore, for the segment-level classification framework, the temporal feature integration process is mainly based on statistical models, but would it be possible to propose other methods ? Throughout this thesis, we investigate this subject by working on several concrete case studies. First, we contribute to the development of a novel audio algorithm dedicated to audio protection. The purpose of this algorithm is to detect and suppress very quickly potentially dangerous sounds for the listener. Our method, which relies on the proposition of three features, shows high detection rate and low false alarm rate in many use cases. Then, we focus on the temporal feature integration in a low-latency framework. To that end, we propose and evaluate several methodologies for the use temporal integration that lead to a good compromise between performance and reactivity. Finally, we propose a novel approach that exploits the temporal evolution of the features. This approach is based on the use of symbolic representation that can capture the temporal structure of the features. The idea is thus to find temporal patterns that are specific to each audio classes. The experiments performed with this approach show promising results
Style APA, Harvard, Vancouver, ISO itp.
5

Bernard, Nicolas. "Non-observabilité des communications à faible latence". Phd thesis, Grenoble 1, 2008. http://www.theses.fr/2008GRE10103.

Pełny tekst źródła
Streszczenie:
Cette thèse s'articule autour de deux parties, toutes deux liées à la protection de la vie privée dans les réseaux informatiques en général et sur l'Internet en particulier. Dans la première partie, nous proposons un système permettant d'établir des communications interactives non-observables, c'est-à-dire telles qu'un observateur ne puisse pas déterminer vers quelle(s) destination(s) sont établies ces communications, ni même, en fait, être certain qu'il y a bien de vraies communications!. Ce système innove par le niveau de protection qu'il vise, puisque même un observateur très puissant ne devrait pas être à même de la contourner. Cette protection se base sur l'Onion-Routing et le complète avec des méthodes sophistiquées destinées à déjouer l'analyse de trafic. Dans la seconde partie, nous nous intéressons plus particulièrement au protocole DNS. Bien qu'il soit possible de le protéger avec notre proposition de la partie précédente, cela dégrade ses performances (en termes de latence), ce qui à son tour a un impact sur celles des protocoles qui utilisent DNS. Dans cette partie, nous proposons une solution spécifique à DNS, qui fournit à la fois un bon niveau de protection et de meilleures performances. Ces deux systèmes peuvent bien sûr se combiner, mais aussi être utilisés comme des briques séparées, avec d'autre mécanismes de protection de la vie privée
This thesis is built around two parts, both related to the protection of privacy in computer networks, and more precisely on the Internet. In the first part, we propose a system allowing the establishment of unobservable interactive communications, unobservable meaning an observer can neither pinpoint the destination(s) of those communications, nor, in fact, know if there are real communications in the first place!. This system aims to provide an unequaled level of protection, as even a very powerful observer should not be able to bypass it. This protection is based on Onion-Routing and adds innovative methods against traffic analysis. In the second part, we take a closer look at the DNS protocol. While it is possible to protect it with our proposition described in the first part, this degrades performance, specifically latency, which has an impact on those protocols using DNS. In this part, we propose a DNS specific solution, providing both a good level of protection and better performance. These two systems can be combined of course, but they can also be used as separate bricks with other privacy enhancing mechanisms too
Style APA, Harvard, Vancouver, ISO itp.
6

Bernard, Nicolas. "Non-observabilité des communications à faible latence". Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00325234.

Pełny tekst źródła
Streszczenie:
Cette thèse s'articule autour de deux parties, toutes deux liées à la protection de la vie privée dans les réseaux informatiques en général et sur l'Internet en particulier.

Dans la première partie, nous proposons un système permettant d'établir des communications interactives non-observables, c'est-à-dire telles qu'un observateur ne puisse pas déterminer vers quelle(s) destination(s) sont établies ces communications, ni même, en fait, être certain qu'il y a bien de vraies communications!
Ce système innove par le niveau de protection qu'il vise, puisque même un observateur très puissant ne devrait pas être à même de la contourner.
Cette protection se base sur l'Onion-Routing et le complète avec des méthodes sophistiquées destinées à déjouer l'analyse de trafic.

Dans la seconde partie, nous nous intéressons plus particulièrement au protocole DNS.
Bien qu'il soit possible de le protéger avec notre proposition de la partie précédente, cela dégrade ses performances (en termes de latence), ce qui à son tour a un impact sur celles des protocoles qui utilisent DNS.
Dans cette partie, nous proposons une solution spécifique à DNS, qui fournit à la fois un bon niveau de protection et de meilleures performances.

Ces deux systèmes peuvent bien sûr se combiner, mais aussi être utilisés comme des briques séparées, avec d'autre mécanismes de protection de la vie privée.
Style APA, Harvard, Vancouver, ISO itp.
7

Wood, Sean. "GCC-NMF : séparation et rehaussement de la parole en temps-réel à faible latence". Thèse, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/11905.

Pełny tekst źródła
Streszczenie:
Le phénomène du cocktail party fait référence à notre remarquable capacité à nous concentrer sur une seule voix dans des environnements bruyants. Dans cette thèse, nous concevons, implémentons et évaluons une approche computationnelle nommée GCC-NMF pour résoudre ce problème. GCC-NMF combine l’apprentissage automatique non supervisé par la factorisation matricielle non négative (NMF) avec la méthode de localisation spatiale à corrélation croisée généralisée (GCC). Les atomes du dictionnaire NMF sont attribués au locuteur cible ou à l’interférence à chaque instant en fonction de leurs emplacements spatiaux estimés. Nous commençons par étudier GCC-NMF dans le contexte hors ligne, où des mélanges de 10 secondes sont traités à la fois. Nous développons ensuite une variante temps réel de GCC-NMF et réduisons par la suite sa latence algorithmique inhérente de 64 ms à 2 ms avec une méthode asymétrique de transformée de Fourier de courte durée (STFT). Nous montrons que des latences aussi faibles que 6 ms, dans la plage des délais tolérables pour les aides auditives, sont possibles sur les plateformes embarquées actuelles. Nous évaluons la performance de GCC-NMF sur des données publiquement disponibles de la campagne d’évaluation de séparation des signaux SiSEC. La qualité de séparation objective est quantifiée avec les méthodes PEASS, estimant les évaluations subjectives humaines, ainsi que BSS Eval basée sur le rapport signal sur bruit (SNR) traditionnel. Bien que GCC-NMF hors ligne ait moins bien performé que d’autres méthodes du défi SiSEC en termes de métriques SNR, ses scores PEASS sont comparables aux meilleurs résultats. Dans le cas de GCC-NMF en ligne, alors que les métriques basées sur le SNR favorisent à nouveau d’autres méthodes, GCC-NMF surpasse toutes les approches précédentes sauf une en termes de scores PEASS globaux, obtenant des résultats comparables au masque binaire idéale. Nous montrons que GCC-NMF augmente la qualité objective et les métriques d’intelligibilité STOI et ESTOI sur une large gamme de SNR d’entrée de -30 à 20 dB, avec seulement des réductions mineures pour les SNR d’entrée supérieurs à 20 dB. GCC-NMF présente plusieurs caractéristiques souhaitables lorsqu’on le compare aux approches existantes. Contrairement aux méthodes d’analyse de scène auditive computationnelle (CASA), GCC-NMF ne nécessite aucune connaissance préalable sur la nature des signaux d’entrée et pourrait donc convenir aux applications de séparation et de débruitage de source dans un grand nombre de domaines. Dans le cas de GCC-NMF en ligne, seule une petite quantité de données non étiquetées est nécessaire pour apprendre le dictionnaire NMF. Cela se traduit par une plus grande flexibilité et un apprentissage beaucoup plus rapide par rapport aux approches supervisées, y compris les solutions basées sur NMF et les réseaux neuronaux profonds qui reposent sur de grands ensembles de données étiquetées. Enfin, contrairement aux méthodes de séparation de source aveugle (BSS) qui reposent sur des statistiques de signal accumulées, GCC-NMF fonctionne indépendamment pour chaque trame, ce qui permet des applications en temps réel à faible latence.
Abstract: The cocktail party phenomenon refers to our remarkable ability to focus on a single voice in noisy environments. In this thesis, we design, implement, and evaluate a computational approach to solving this problem named GCC-NMF. GCC-NMF combines unsupervised machine learning via non-negative matrix factorization (NMF) with the generalized cross-correlation (GCC) spatial localization method. Individual NMF dictionary atoms are attributed to the target speaker or background interference at each point in time based on their estimated spatial locations. We begin by studying GCC-NMF in the offline context, where entire 10-second mixtures are treated at once. We then develop an online, instantaneous variant of GCC-NMF and subsequently reduce its inherent algorithmic latency from 64 ms to 2 ms with an asymmetric short-time Fourier transform (STFT) windowing method. We show that latencies as low as 6 ms, within the range of tolerable delays for hearing aids, are possible on current hardware platforms. We evaluate the performance of GCC-NMF on publicly available data from the Signal Separation Evaluation Campaign (SiSEC), where objective separation quality is quantified using the signal-to-noise ratio (SNR)-based BSS Eval and perceptually-motivated PEASS toolboxes. Though offline GCC-NMF underperformed other methods from the SiSEC challenge in terms of the SNR-based metrics, its PEASS scores were comparable with the best results. In the case of online GCC-NMF, while SNR-based metrics again favoured other methods, GCC-NMF outperformed all but one of the previous approaches in terms of overall PEASS scores, achieving comparable results to the ideal binary mask (IBM) baseline. Furthermore, we show that GCC-NMF increases objective speech quality and the STOI and ETOI speech intelligibility metrics over a wide range of input SNRs from -30 dB to 20 dB, with only minor reductions for input SNRs greater than 20 dB. GCC-NMF exhibits a number of desirable characteristics when compared existing approaches. Unlike computational auditory scene analysis (CASA) methods, GCC-NMF requires no prior knowledge about the nature of the input signals, and may thus be suitable for source separation and denoising applications in a wide range of fields. In the case of online GCC-NMF, only a small amount of unlabeled data is required to pre-train the NMF dictionary. This results in much greater flexibility and significantly faster training when compared to supervised approaches including NMF and deep neural network-based solutions that rely on large, supervised datasets. Finally, in contrast with blind source separation (BSS) methods that rely on accumulated signal statistics, GCC-NMF operates independently for each time frame, allowing for low latency, real-time applications.
Style APA, Harvard, Vancouver, ISO itp.
8

Barnault, Loïc. "Optimisation de la démodulation et du codage pour une communication sporadique de faible latence". Cergy-Pontoise, 2006. http://www.theses.fr/2006CERG0303.

Pełny tekst źródła
Streszczenie:
Dans cette thèse on propose une chaîne de communication performante dans un contexte où les contraintes sur la QoS et sur l'efficacité spectrale visée ne peuvent être satisfaites par les systèmes actuels. On se place dans un contexte de communications satellitaires où l'on transmet des paquets de petite taille. Classiquement, les seuls systèmes envisageables pour la plage d'efficacité spectrale [0. 5,0. 8] font cohabiter des codes et des modems incompatibles en terme de performances. Le système proposé dans cette thèse est basé sur la définition de la constellation 3PSK possédant des caractéristiques situées entre la BPSK et la QPSK mais une capacité de démodulations supérieure. Pour permettre un bon couplage code-modem on propose d’associer un modem burst ternaire à des codes ternaires TCP et LDPC performants. On montre enfin, après optimisation du système global code-modem, que sur la plage d'efficacité spectrale cible les performances outrepassent celles de son équivalent binaire
The aim of this thesis consist in proposing a powerful communication system for satellite transmissions where the constraints put on the QoS and the spectral efficiency cannot be handled by existing systems. We work in a context of satellite communications where small packets are transmitted. Typically, the combinations code-modem which are proposed for spectral efficiencies in [0. 5,0. 8] are unbalanced in term of performance. The system we propose in this thesis is based on the 3PSK constellation which possesses a better demodulation capacity than BPSK or QPSK. In order to improve the cohabitation code-modem, we propose to associate a ternary burst modem with powerful ternary codes (TPC & LDPC). Finally, we show, after optimizations of the global system, that in the range of spectral efficiencies [0. 5,0. 8], our systems exhibit better performances than their binary counterparts
Style APA, Harvard, Vancouver, ISO itp.
9

POTTER, FREDERIC. "Conception et realisation d'un reseau d'interconnexion a faible latence et haut debit pour machines multiprocesseurs". Paris 6, 1996. http://www.theses.fr/1996PA066670.

Pełny tekst źródła
Streszczenie:
Cette these presente un mecanisme de communication a tres hautes performances pour machines multiprocesseurs s'appuyant sur des liaisons serie point-a-point a 1 gbit/sec. Il permet d'utiliser des stations de travail, tout en atteignant les performances des meilleurs ordinateurs paralleles. Nous avons concu et realise le routeur de paquets rcube, utilisant huit liens serie. Celui-ci permet l'acheminement de messages entre plusieurs processeurs. Le temps de routage d'un paquet est extremement cours (150 ns). Rcube presente en plus un mecanisme adaptatif general, qui permet le routage concurrent de paquets ayant la meme destination sur des liens differents. Un composant d'interface entre le bus pci et la liaison serie a ete specifie, et sa micro-architecture definie. De faible complexite, pci-hsl implemente le protocole direct deposit stateless receiver protocol, qui constitue le point clef de notre systeme. Nous avons aussi montre qu'il etait possible, en utilisant ce protocole, de construire une bibliotheque permettant une programmation par passage de messages. Les simulations effectuees montrent l'efficacite des mecanismes materiels de transfert de donnees, en particulier le debit de notre systeme est particulierement eleve, et sa latence faible.
Style APA, Harvard, Vancouver, ISO itp.
10

Gong, Yixi. "La quête de latence faible sur les deux bords du réseau : conception, analyse, simulation et expériences". Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0018/document.

Pełny tekst źródła
Streszczenie:
Au cours de ces dernières années, les services Internet croissent considérablement ce qui crée beaucoup de nouveaux défis dans des scénarios variés. La performance globale du service dépend à son tour de la performance des multiples segments de réseau. Nous étudions deux défis représentatifs de conception dans différents segments : les deux les plus importants se trouvent sur les bords opposés la connectivité de bout en bout des chemins d’Internet, notamment, le réseau d’accès pour l’ utilisateur et le réseau de centre de données du fournisseur de services
In the recent years, the innovation of new services over Internet is considerably growing at a fast speed, which brings forward lots of new challenges under varied scenarios. The overall service performance depends in turn on the performance of multiple network segments. We investigated two representative design challenges in different segments : the two most important sit at the opposite edges of the end-to-end Internet path, namely, the end-user access network vs. the service provider data center network
Style APA, Harvard, Vancouver, ISO itp.
Więcej źródeł

Książki na temat "Applications à faible latence"

1

Pace, Phillip E. Detecting and classifying low probability of intercept radar. Wyd. 2. Boston: Artech House, 2009.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
2

Pace, Phillip E. Detecting and classifying low probability of intercept radar. Boston, MA: Artech House, 2004.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
3

Pace, Phillip E. Detecting and classifying low probability of intercept radar. Wyd. 2. Boston: Artech House, 2009.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
4

Pace, Phillip E. Detecting and classifying low probability of intercept radar. Wyd. 2. Boston: Artech House, 2009.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
5

Low Power Semiconductor Devices and Processes for Emerging Applications in Communications, Computing, and Sensing. Taylor & Francis Group, 2018.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
6

Walia, Sumeet. Low Power Semiconductor Devices and Processes for Emerging Applications in Communications, Computing, and Sensing. Taylor & Francis Group, 2018.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
7

Walia, Sumeet. Low Power Semiconductor Devices and Processes for Emerging Applications in Communications, Computing, and Sensing. Taylor & Francis Group, 2018.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
8

Walia, Sumeet. Low Power Semiconductor Devices and Processes for Emerging Applications in Communications, Computing, and Sensing. Taylor & Francis Group, 2018.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
9

Walia, Sumeet. Low Power Semiconductor Devices and Processes for Emerging Applications in Communications, Computing, and Sensing. Taylor & Francis Group, 2018.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
10

Yuan, Fei. Low Power Circuits for Emerging Applications in Communications, Computing, and Sensing. Taylor & Francis Group, 2018.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
Więcej źródeł

Części książek na temat "Applications à faible latence"

1

MOKNI, Marwa, i Sonia YASSA. "Ordonnancement du flux de travail IoT basé sur la qualité de service". W Optimisation et apprentissage, 29–57. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9071.ch2.

Pełny tekst źródła
Streszczenie:
L’ordonnancement des applications de l’Internet des objets est sensible à la latence. Malgré les capacités de calcul et de stockage du Cloud computing, les valeurs de latence sont affectées. Par conséquent, cette limitation du Cloud a conduit au développement du paradigme du Fog Computing basée par l’approche d’ordonnancement par un système multi-agents pour exploiter les fonctionnalités indépendantes de chaque agent.
Style APA, Harvard, Vancouver, ISO itp.
2

BEAUSSAC, M., V. POMMIER DE SANTI, H. SAVINI, F. SIMON i R. MICHEL. "La bilharziose, problème de santé publique sous-évalué chez les militaires français ?" W Médecine et Armées Vol. 46 No.1, 45–52. Editions des archives contemporaines, 2018. http://dx.doi.org/10.17184/eac.7368.

Pełny tekst źródła
Streszczenie:
La bilharziose est une affection parasitaire due à un plathelminthe du genre Schistosoma. On estime que plus de 260 millions de personnes dans le monde sont infectées par ce parasite. De nombreux voyageurs (migrants, touristes ou militaires) se contaminent en zones d’endémie par contact avec de l’eau douce. La bilharziose est une pathologie de diagnostic difficile du fait d’une latence et d’une faible spécificité clinique, ainsi que d’une relative performance des examens biologiques. Elle est donc sous-estimée, y compris dans les armées. Malgré cela, plusieurs épidémies ont été rapportées dans les armées françaises depuis 2012. Il nous apparaît donc indispensable de mettre en place un dépistage de la bilharziose dans les armées françaises, visant entre autres à éviter les complications liées à cette affection par une prise en charge précoce des militaires infectés. Un projet d’étude clinique ayant pour objectif d’estimer la prévalence de l’exposition à la bilharziose et de mesurer la proportion d’infections bilharziennes parmi les militaires au retour de zone d’endémie a donc été élaboré. Après quelques rappels sur la bilharziose, les auteurs présentent ici les dernières investigations menées autour de cas de bilharziose ainsi que le projet d’étude clinique.
Style APA, Harvard, Vancouver, ISO itp.
3

LYASHKO, Sergiy, Valerii SAMOILENKO, Yuliia SAMOILENKO i Nataliia LYASHKO. "Analyse asymptotique de l’équation vcKdV avec singularité faible". W Méthodes de calcul et modélisation mathématique en cyberphysique et applications techniques 1, 51–69. ISTE Group, 2024. https://doi.org/10.51926/iste.9164.ch3.

Pełny tekst źródła
Streszczenie:
Ce chapitre analyse les solutions asymptotiques de type soliton de l’équation de Korteweg-de Vries à coefficients variables (vcKdV) avec une singularité faible, décrivant les processus d’ondes dans des milieux inhomogènes avec des caractéristiques variables et une petite dispersion. L’attention est portée sur la description d’un algorithme pour la construction de solutions asymptotiques et l’analyse subséquente de ces solutions. Cette approche nous fournit des outils efficaces pour étudier l’influence des paramètres du modèle sur les propriétés du système dynamique considéré.
Style APA, Harvard, Vancouver, ISO itp.
4

Herzig, Jonathan, Jonathan Berant i Ben Bogin. "Chapter 29. Latent Trees for Compositional Generalization". W Frontiers in Artificial Intelligence and Applications. IOS Press, 2023. http://dx.doi.org/10.3233/faia230161.

Pełny tekst źródła
Streszczenie:
Despite the success of neural networks in many natural language processing tasks, recent work has shown that they often fail in compositional generalization, i.e., the ability to generalize to new structures built from components observed during training. In this chapter, we posit that this behavior, in standard architectures such as LSTMs and Transformers, stems from the fact that fragments on the output side are not explicitly tied to fragments on the input side. To address this, we introduce models that explicitly construct latent trees over the input, which are used to compositionally compute representations necessary for predicting the output. We show the compositional generalization abilities of our models exceed the abilities of pre-trained Transformer models on several datasets for both semantic parsing and grounded question answering.
Style APA, Harvard, Vancouver, ISO itp.
5

GINOSAR, Ran. "Plural, pluricoeur haute performance à faible consommation d’énergie". W Systèmes multiprocesseurs sur puce 1, 73–91. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9021.ch3.

Pełny tekst źródła
Streszczenie:
Ce chapitre présente l’architecture pluri-cœur Plural qui combine plusieurs cœurs de processeur, un ordonnanceur matériel et une grande mémoire partagée sur puce. Elle utilise un modèle de programmation PRAM, de parallélisme au niveau des tâches et s’avère très efficace pour les applications DSP et d’apprentissage automatique. L’architecture Plural est hautement extensible et atteint de rapports élevés de performance/puissance.
Style APA, Harvard, Vancouver, ISO itp.
6

KRIEF, Francine, Hasnaâ ANISS, Marion BERBINEAU i Killian LE PAGE. "Apport de la radio intelligente pour répondre aux besoins de communication sur route des véhicules autonomes". W Gestion et contrôle intelligents des réseaux, 261–90. ISTE Group, 2020. http://dx.doi.org/10.51926/iste.9008.ch10.

Pełny tekst źródła
Streszczenie:
Le véhicule autonome est en plein développement et de nouvelles applications apparaissent. Ces applications ont des besoins de communication spécifiques, que ce soit en termes de latence, de portée ou de bande passante. Pour que ces applications fonctionnent au mieux, il convient de sélectionner la technologie d’accès radio la mieux adaptée à leurs besoins et donc d’étudier les avantages et inconvénients des architectures sur lesquelles ces technologies d’accès reposent. La radio intelligente (RI) se définit par ses capacités de perception, d’adaptation et de cognition. L’objectif de ce chapitre est de présenter les principaux apports de la RI dans le domaine véhiculaire, tels que l’amélioration de la couverture réseau ou bien encore l’amélioration de la bande passante disponible.
Style APA, Harvard, Vancouver, ISO itp.
7

PALA, Marco. "Transistors à effet tunnel basés sur des semi-conducteurs III-V". W Au-delà du CMOS, 5–35. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9127.ch1.

Pełny tekst źródła
Streszczenie:
Les TFET basés sur des semi-conducteurs III-V peuvent constituer une option viable pour remplacer les MOSFET pour les applications de faible puissance. Ce chapitre montre, par des simulations basées sur la fonction de Green de non équilibre, les potentialités et les limites de cette technologie pour différents matériaux et en présence de désordre ou contrainte.
Style APA, Harvard, Vancouver, ISO itp.
8

DAVID, Raphaël, Étienne HAMELIN, Paul DUBRULLE, Shuai LI, Philippe DORE, Alexis OLIVEREAU, Maroun OJAIL, Alexandre CARBON i Laurent LE GARFF. "Plate-forme modulaire pour un environnement informatique de l’automobile du futur". W Systèmes multiprocesseurs sur puce 2, 125–57. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9022.ch5.

Pełny tekst źródła
Streszczenie:
Ce chapitre introduit une plate-forme matérielle opérant en temps réel et répondant aux défis de conception des architectures électriques et électroniques des véhicules intelligents de l’avenir. Grâce à la conception intégrée, et en se servant de logiciels et d’outils embarqués, les auteurs montrent la cohabitation efficace entre les applications à faible criticité et le logiciel opérationnel critique de la voiture.
Style APA, Harvard, Vancouver, ISO itp.
9

Wu, Weixin, i Hankz Hankui Zhuo. "DPBERT: Efficient Inference for BERT Based on Dynamic Planning". W Frontiers in Artificial Intelligence and Applications. IOS Press, 2023. http://dx.doi.org/10.3233/faia230580.

Pełny tekst źródła
Streszczenie:
Large-scale pre-trained language models such as BERT have contributed significantly to the development of NLP. However, those models require large computational resources, making it difficult to be applied to mobile devices where computing power is limited. In this paper we aim to address the weakness of existing input-adaptive inference methods which fail to take full advantage of the structure of BERT. We propose Dynamic Planning in BERT, a novel fine-tuning strategy that can accelerate the inference process of BERT through selecting a subsequence of transformer layers list of backbone as a computational path for an input sample. To do this, our approach adds a planning module to the original BERT model to determine whether a layer is included or bypassed during inference. Experimental results on the GLUE benchmark exhibit that our method reduces latency to 75% while maintaining 98% accuracy, yielding a better accuracy-speed trade-off compared to state-of-the-art input-adaptive methods.
Style APA, Harvard, Vancouver, ISO itp.
10

LYASHKO, Sergiy, Valerii SAMOILENKO, Yuliia SAMOILENKO i Evgen VAKAL. "Les solutions asymptotiques pour l’équation de Kortewegde Vries avec des coefficients variables et une perturbation singulière". W Méthodes de calcul et modélisation mathématique en cyberphysique et applications techniques 1, 17–49. ISTE Group, 2024. https://doi.org/10.51926/iste.9164.ch2.

Pełny tekst źródła
Streszczenie:
Ce chapitre examine le problème de la description mathématique des solutions de type soliton des modèles hydrodynamiques. Il s’agit notamment de l’équation de Korteweg-de Vries (KdV) et de ses généralisations, qui décrivent les processus ondulatoires dans des milieux inhomogènes avec des caractéristiques variables et une faible dispersion. L’attention est principalement portée sur le développement d’un algorithme pour la construction de solutions approximatives (asymptotiques) de type soliton. Ces solutions contiennent une partie régulière, qui est une fonction d’arrière-plan, et une partie singulière, qui reflète les propriétés de soliton des solutions. Elles sont construites à l’aide de la méthode WKB non linéaire. La construction des parties régulières et singulières de la solution asymptotique recherchée est décrite en détail.
Style APA, Harvard, Vancouver, ISO itp.

Streszczenia konferencji na temat "Applications à faible latence"

1

Stas, Francois, Angelo Kuti Lusala, Jean-Didier Legat i David Bol. "Investigation of the routing algorithm in a De Bruijn-based NoC for low-power applications". W 2013 IEEE Faible Tension Faible Consommation (FTFC). IEEE, 2013. http://dx.doi.org/10.1109/ftfc.2013.6577761.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
2

Abdaoui, Rahma, Martine Villegas i Genvieve Baudoin. "Potentiality of a low power 60 GHz transceiver approach for EEG/ECG WSN medical applications". W 2013 IEEE Faible Tension Faible Consommation (FTFC). IEEE, 2013. http://dx.doi.org/10.1109/ftfc.2013.6577774.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
3

Pelloux-Prayer, Bertrand, Milovan Blagojevic, Olivier Thomas, Amara Amara, Andrei Vladimirescu, Borivoje Nikolic, Giorgio Cesana i Philippe Flatresse. "Planar fully depleted SOI technology: The convergence of high performance and low power towards multimedia mobile applications". W 2012 IEEE Faible Tension Faible Consommation (FTFC). IEEE, 2012. http://dx.doi.org/10.1109/ftfc.2012.6231742.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
4

Samir, A., E. Kussener, W. Rahajandraibe, H. Barthelemy i L. Girardeau. "A 90-nm CMOS high efficiency on chip DC-DC converter for ultra-low power low cost applications". W 2013 IEEE Faible Tension Faible Consommation (FTFC). IEEE, 2013. http://dx.doi.org/10.1109/ftfc.2013.6577765.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
5

You, Kang, Kai Liu, Li Yu, Pan Gao i Dandan Ding. "Pointsoup: High-Performance and Extremely Low-Decoding-Latency Learned Geometry Codec for Large-Scale Point Cloud Scenes". W Thirty-Third International Joint Conference on Artificial Intelligence {IJCAI-24}. California: International Joint Conferences on Artificial Intelligence Organization, 2024. http://dx.doi.org/10.24963/ijcai.2024/595.

Pełny tekst źródła
Streszczenie:
Despite considerable progress being achieved in point cloud geometry compression, there still remains a challenge in effectively compressing large-scale scenes with sparse surfaces. Another key challenge lies in reducing decoding latency, a crucial requirement in real-world application. In this paper, we propose Pointsoup, an efficient learning-based geometry codec that attains high-performance and extremely low-decoding-latency simultaneously. Inspired by conventional Trisoup codec, a point model-based strategy is devised to characterize local surfaces. Specifically, skin features are embedded from local windows via an attention-based encoder, and dilated windows are introduced as cross-scale priors to infer the distribution of quantized features in parallel. During decoding, features undergo fast refinement, followed by a folding-based point generator that reconstructs point coordinates with fairly fast speed. Experiments show that Pointsoup achieves state-of-the-art performance on multiple benchmarks with significantly lower decoding complexity, i.e., up to 90~160× faster than the G-PCCv23 Trisoup decoder on a comparatively low-end platform (e.g., one RTX 2080Ti). Furthermore, it offers variable-rate control with a single neural model (2.9MB), which is attractive for industrial practitioners.
Style APA, Harvard, Vancouver, ISO itp.
6

Wu, Le, Lei Chen, Yonghui Yang, Richang Hong, Yong Ge, Xing Xie i Meng Wang. "Personalized Multimedia Item and Key Frame Recommendation". W Twenty-Eighth International Joint Conference on Artificial Intelligence {IJCAI-19}. California: International Joint Conferences on Artificial Intelligence Organization, 2019. http://dx.doi.org/10.24963/ijcai.2019/198.

Pełny tekst źródła
Streszczenie:
When recommending or advertising items to users, an emerging trend is to present each multimedia item with a key frame image (e.g., the poster of a movie). As each multimedia item can be represented as multiple fine-grained visual images (e.g., related images of the movie), personalized key frame recommendation is necessary in these applications to attract users' unique visual preferences. However, previous personalized key frame recommendation models relied on users' fine grained image behavior of multimedia items (e.g., user-image interaction behavior), which is often not available in real scenarios. In this paper, we study the general problem of joint multimedia item and key frame recommendation in the absence of the fine-grained user-image behavior. We argue that the key challenge of this problem lies in discovering users' visual profiles for key frame recommendation, as most recommendation models would fail without any users' fine-grained image behavior. To tackle this challenge, we leverage users' item behavior by projecting users(items) in two latent spaces: a collaborative latent space and a visual latent space. We further design a model to discern both the collaborative and visual dimensions of users, and model how users make decisive item preferences from these two spaces. As a result, the learned user visual profiles could be directly applied for key frame recommendation. Finally, experimental results on a real-world dataset clearly show the effectiveness of our proposed model on the two recommendation tasks.
Style APA, Harvard, Vancouver, ISO itp.
7

Tuite, Tom. "Case Study—Failure Analysis of a Printed Circuit Board Latent Failure and Resulting Implication of Weaknesses in Panel Coupons and Lot DPA". W ISTFA 2017. ASM International, 2017. http://dx.doi.org/10.31399/asm.cp.istfa2017p0635.

Pełny tekst źródła
Streszczenie:
Abstract Multiple, independent, system level test failures that occurred around the same time were traced back to a short circuit on the same type of printed circuit board (PCB). The PCBs were removed from the application and sent to the authors' lab for analysis. This paper reviews the analysis techniques and results that led to the failure mechanism being identified. The discussion focuses on steps taken to exonerate the authors' lab and processes as possible sources of contamination. Additional investigation that leads to the conclusion that the issue is systemic is also covered. The paper then focuses on the containment effort as well as root cause identification at the manufacturers. It was concluded that the failure mechanism causing the short circuit in the failed PCB is due to ionic contamination trapped inside the PCB. The normal chemistry required to process the plated through holes contaminated the voids/fractures created by drilling process.
Style APA, Harvard, Vancouver, ISO itp.
8

Teng, Zheng, Hui Wu, Jize Zhang i Xin Ju. "A Generative Model of Discrete Fracture Networks Based on Latent Diffusion Model". W International Geomechanics Conference. ARMA, 2024. https://doi.org/10.56952/igs-2024-0455.

Pełny tekst źródła
Streszczenie:
ABSTRACT: Discrete fractures are prevalent in shallow crust and play a crucial role in the transport of fluids, mass, and heat underground. Therefore, accurately characterizing subsurface discrete fracture networks (DFNs) is essential for a wide range of scientific and engineering applications. Such characterization often relies on the inversion of indirect observational data. However, the inherent complexity of DFNs, together with the generally limited and sparse geological/geophysical data, present significant challenges to DFN characterization. In this study, we introduce a low-dimensional generative model for DFNs based on latent diffusion models (LDMs). The LDM is trained on DFN samples that incorporate well-acknowledged fracture statistical properties. Our results demonstrate that this method is able to generate high-quality DFNs from a low-dimensional latent space, and can properly reproduce the key fracture statistical distributions in terms of fracture location, length and orientation. This low-dimensional generative model provides an effective parameterization tool for subsurface DFN characterization. 1. INTRODUCTION Discrete fractures play a crucial role in governing mass and heat transport processes in the context of subsurface reservoir exploitation (Anderson and Fairley, 2008). The effective development of these reservoirs demands a comprehensive characterization of the underlying discrete fracture network (DFN) (Galloway et al., 2018; Lepillier et al., 2020). Given the high costs and technical challenges of directly observing subsurface fractures, the characterization process frequently relies on the inversion of indirect hydraulic or geophysical data (Afshari Moein et al., 2018; Hawkins et al., 2018; Jiang et al., 2023). However, such inversions often face ill-posedness problems, arising from the complex geometries of typically densely distributed fractures and the generally sparse nature of geological and geophysical data (Zhan et al., 2022; Jiang et al., 2023). Consequently, there is a pressing need for an effective low-dimensional parameterization method for DFNs to bridge the gap between their complexity and the limitations imposed by data scarcity. Traditional approaches treat each fracture as an independent entity, describing them through parameters related to their location, length and orientation. This leads to a high-dimensional and uncertain parameter space, which hinders the applicability of most inversion techniques.
Style APA, Harvard, Vancouver, ISO itp.
9

Kunstner, Frederik, Raunak Kumar i Mark Schmidt. "Homeomorphic-Invariance of EM: Non-Asymptotic Convergence in KL Divergence for Exponential Families via Mirror Descent (Extended Abstract)". W Thirty-First International Joint Conference on Artificial Intelligence {IJCAI-22}. California: International Joint Conferences on Artificial Intelligence Organization, 2022. http://dx.doi.org/10.24963/ijcai.2022/738.

Pełny tekst źródła
Streszczenie:
Expectation maximization (EM) is the default algorithm for fitting probabilistic models with missing or latent variables, yet we lack a full understanding of its non-asymptotic convergence properties. Previous works show results along the lines of “EM converges at least as fast as gradient descent” by assuming the conditions for the convergence of gradient descent apply. This approach is not only loose, in that it does not capture that EM can make more progress than a gradient step, but the assumptions fail to hold for textbook examples of EM like Gaussian mixtures. In this work, we show that for the common setting of exponential family distributions, viewing EM as a mirror descent algorithm leads to convergence rates in Kullback-Leibler (KL) divergence and how the KL divergence is related to first-order stationarity via Bregman divergences. In contrast to previous works, the analysis is invariant to the choice of parametrization and holds with minimal assumptions. We also show applications of these ideas to local linear (and superlinear) convergence rates, generalized EM, and non-exponential family distributions.
Style APA, Harvard, Vancouver, ISO itp.
10

Luo, Shijie, He Li i Jianbin Huang. "Dynamic Group Link Prediction in Continuous-Time Interaction Network". W Thirty-Second International Joint Conference on Artificial Intelligence {IJCAI-23}. California: International Joint Conferences on Artificial Intelligence Organization, 2023. http://dx.doi.org/10.24963/ijcai.2023/248.

Pełny tekst źródła
Streszczenie:
Recently, group link prediction has received increasing attention due to its important role in analyzing relationships between individuals and groups. However, most existing group link prediction methods emphasize static settings or only make cursory exploitation of historical information, so they fail to obtain good performance in dynamic applications. To this end, we attempt to solve the group link prediction problem in continuous-time dynamic scenes with fine-grained temporal information. We propose a novel continuous-time group link prediction method CTGLP to capture the patterns of future link formation between individuals and groups. A new graph neural network CTGNN is presented to learn the latent representations of individuals by biasedly aggregating neighborhood information. Moreover, we design an importance-based group modeling function to model the embedding of a group based on its known members. CTGLP eventually learns a probability distribution and predicts the link target. Experimental results on various datasets with and without unseen nodes show that CTGLP outperforms the state-of-the-art methods by 13.4% and 13.2% on average.
Style APA, Harvard, Vancouver, ISO itp.

Raporty organizacyjne na temat "Applications à faible latence"

1

BACCELLI, François, Sébastien CANDEL, Guy PERRIN i Jean-Loup PUGET. Grandes Constellations de Satellites : Enjeux et Impacts. Académie des sciences, marzec 2024. http://dx.doi.org/10.62686/2.

Pełny tekst źródła
Streszczenie:
Le nouvel âge spatial (NewSpace) marque l’avènement d’une ère nouvelle dans l’utilisation de l’espace caractérisée par une ouverture de l’espace à de nouveaux acteurs fondée sur de nouvelles technologies spatiales, par de nouvelles fonctionnalités pour les satellites mis en orbite et par le développement de constellations de satellites, principalement dans les domaines des communications et de l’observation de la Terre. Ces développements s’appuient sur des avancées scientifiques et technologiques de premier plan ainsi que sur des investissements publics et privés considérables, notamment aux États-Unis, en Chine et dans une moindre mesure en Europe. Des flottes de petits satellites en orbite basse ou moyenne viennent remplacer ou s’ajouter aux grands satellites géostationnaires qui prédominaient dans la phase précédente. Alors que l’espace était auparavant réservé à un petit nombre d’États et de grands groupes industriels, on observe actuellement l’émergence de nouveaux États spatiaux, de nouveaux groupes industriels comme SpaceX ou Amazon, ainsi que d’un grand nombre de jeunes pousses. On note l’émergence d’entreprises disposant de capacités de lancement, de fabrication de satellites et qui prennent également le rôle d’opérateurs de télécommunications et de producteurs de contenu. Le résultat le plus visible du déploiement de ces nouveaux réseaux spatiaux est de permettre des connexions Internet à haut débit et faible latence en tout point du globe terrestre. Combinés à des capacités d’observation de la Terre, ces nouveaux moyens de communications permettent aussi d’agir en temps-réel dans toute région, y compris dans celles dépourvues d’équipements autres que les terminaux. Ces réseaux spatiaux ont, de plus, de remarquables propriétés de résilience en comparaison des réseaux terrestres. Des considérations géostratégiques et militaires se combinent donc avec des modèles économiques en évolution rapide pour expliquer les investissements massifs en cours dans ce domaine. Toutefois, l’absence de régulation internationale du domaine conduit à une course pour l’occupation des orbites et des fréquences, course qui a déjà de graves conséquences sur tout un ensemble de domaines. Ces constellations auront potentiellement un impact très négatif sur l’astronomie dans le domaine optique visible et infrarouge ainsi que sur la radioastronomie. Elles posent aussi un problème majeur qui est celui de l’encombrement de l’espace avec l’augmentation du nombre des débris satellisés issus des lancements ou des collisions entre satellites et avec la possible atteinte d’une phase de collisions en chaîne. De plus, d’un point de vue environnemental, les conséquences d’une multiplication des lancements et des rentrées incontrôlées dans l’atmosphère sont, elles aussi, préoccupantes. Par ailleurs, cette absence de régulation du domaine conduit aussi à une perte de souveraineté puisque ces nouveaux réseaux de communications satellitaires n’appliquent aucune des règles que les États imposent aux réseaux de communications terrestres opérant sur leurs territoires. Une solution durable et globale doit être apportée à ces problèmes, avant que des dommages majeurs et potentiellement irréversibles soient infligés à l’environnement de la planète, aux équilibres géostratégiques, à la démocratie et à la science. Si l’Académie des sciences considère que la France et l’Europe doivent renforcer leurs actions scientifiques et industrielles dans ce domaine pour pouvoir bénéficier des avancées remarquables de ces nouveaux réseaux et disposer à terme d’un réseau de communication résilient et sécurisé, elle recommande aussi de travailler en parallèle au renforcement de la régulation du domaine dans le but de garantir un accès durable aux ressources orbitales et fréquentielles, ainsi qu’une protection des domaines négativement impactés, au premier rang desquels l’astronomie et l’environnement.
Style APA, Harvard, Vancouver, ISO itp.
2

Perret, D., B. Dietiker, J. P. Gravel, T. Fournier i A. J. M. Pugin. Ambient micro-vibration measurements in geotechnical engineering: a practical approach to the HVSR method. Natural Resources Canada/CMSS/Information Management, 2024. http://dx.doi.org/10.4095/p6qwj6n6fj.

Pełny tekst źródła
Streszczenie:
Depuis les dix dernières années, la communauté géotechnique s’intéresse de plus en plus à une technique géophysique basée sur l'analyse du bruit ambiant enregistré à l’aide d’un sismomètre à trois composantes à la surface du sol. Le but de cette technique est de calculer le rapport des spectres d'amplitude de Fourier des composantes horizontale et verticale de l'enregistrement, communément appelé HVSR. (Horizontal to Vertical Spectral Ratio). Lorsque le contraste de vitesse de l'onde de cisaillement entre le substratum rocheux, ou un till dense, et le sol au-dessus est suffisamment élevé, la courbe HVSR montre généralement un pic net à une fréquence correspondant à la fréquence fondamentale du site. En raison de sa mise en œuvre simple sur le terrain et de son faible coût, cette technique est bien adaptée à la cartographie de la fréquence fondamentale pour le microzonage sismique et à l'évaluation des effets potentiels de double résonance entre le sous-sol et les structures construites au-dessus. Cette technique peut également être utilisée pour estimer la profondeur du substratum rocheux et pour extrapoler des profils de vitesse des ondes de cisaillement jusqu'à un substratum rocheux profond dans des analyses de réponse dynamique spécifiques au site. En outre, la connaissance de la fréquence fondamentale peut permettre d’identifier des erreurs dans le profil de vitesses des ondes de cisaillement. Quelques exemples pris dans l’est du Canada illustrant ces différentes applications sont présentés et discutés de manière critique dans l'article, en mettant l'accent sur les limites de la technique.
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii