To see the other types of publications on this topic, follow the link: Pap testing.

Dissertations / Theses on the topic 'Pap testing'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Pap testing.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Urrutia, Maria Teresa. "Development and Testing of a Questionnaire: Beliefs about Cervical Cancer and Pap Test in Chilean Women." Scholarly Repository, 2009. http://scholarlyrepository.miami.edu/oa_dissertations/309.

Full text
Abstract:
Every year 33,000 women die of cervical cancer in Latin American and the Caribbean. Cervical cancer has been the leading cause of potential years of life lost in Chile. Identifying factors that increase Pap test adherence will be extremely useful for developing interventions to increase the use of the Pap test and to reduce the prevalence of cervical cancer. The purpose of this study was to develop and validate a questionnaire to examine women's beliefs about cervical cancer and the Pap test in Chilean women. The questionnaire, developed following the guidelines by Robert de Vellis, is based on the Health Belief Model. The content validity index was 0.93 after 10 Chilean expert's review. A cross-sectional design was implemented to validate the questionnaire. The sample included 333 women recruited from a women's health care center in Santiago, Chile. Exploratory factor analysis was used to evaluate validity and coefficient alpha to evaluate reliability. After six models were computed, the questionnaire was reduced from 53 to 28 items. The new questionnaire,"CPC-28" includes six domains: the barriers domain to take a Pap test considers problems related with a health care center, lack of knowledge and time, being afraid, and embarrassment; the cues to action domain considers cues from family, the health care professional, friend and media; the severity domain considers cervical cancer as a serious problem, the possibility to have a hysterectomy, radiation and chemotherapy, and to die from this disease; the susceptibility domain to take a Pap test considers symptoms, having children, and intercourse; the susceptibility to cervical cancer domain considers the risk to have the disease, age, and possibility to die; and the benefit domain includes to save a life, feel good, and to take care of health. An unexpected salient factor "need to have a Pap test" was found as part of the susceptibility domain. This finding is an important topic for future research. The CPC-28 questionnaire explained 49% of the total variance, and the reliability was .735. It was concluded that the CPC-28 questionnaire will have important implications on research, educative, and administrative role of nursing.
APA, Harvard, Vancouver, ISO, and other styles
2

Franco, Karina dos Santos. "Associações de mulheres em entidades religiosas: local favorável para educação permanente em saúde." Faculdades EST, 2012. http://tede.est.edu.br/tede/tde_busca/arquivo.php?codArquivo=505.

Full text
Abstract:
O objetivo geral dessa pesquisa é demonstrar como uma Associação de Mulheres em uma entidade religiosa pode proporcionar um local favorável para a realização de educação em saúde com a finalidade de proporcionar conhecimento em um ambiente seguro vinculando a ação individual e coletiva de busca de vivências que melhore a saúde das mulheres e combatendo uma doença que no Brasil é a terceira causa de morte feminina em território nacional segundo o Ministério da Saúde. As associações de mulheres em entidades religiosas possuem estatutos próprios que estabelecem as diretrizes a serem seguidas pelas as mulheres. Através de um conhecimento prévio do estatuto das Associações de Mulheres em entidades religiosas, do Programa Atenção Integral a Saúde da Mulher (PAISM), conhecimento das Leis do Sistema Único de Saúde (SUS) e do programa de prevenção do câncer de colo uterino, os profissionais da saúde responsáveis por promover promoção, prevenção e reabilitação poderão ter um local propicio onde as mulheres de forma individual e coletiva se sintam seguras para obter conhecimento, estabelecer metas e realizar ações de promoção e prevenção para o Câncer de Colo Uterino e a superação das barreiras enfrentadas pelas mulheres na realização do exame citopatológico. A hipótese do trabalho é que os profissionais de saúde que trabalham com educação permanente em saúde podem e devem utilizar o ambiente religioso para realizar promoção, prevenção e reabilitação de todas as politicas de saúde preconizadas pelo Programa Atenção Integral a Saúde da Mulher. Trata-se de uma pesquisa qualitativa baseada no estudo fenomenológico-hermenêutico direcionado ao método de analise de estudos teóricos, documentos e textos. O fenômeno foi descrito pelo método descritivo através da escolha do tema, levantamento bibliográfico, formatação do problema, formulação das hipóteses, ficha de leitura do material e fichamento, delimitação da pesquisa, coleta de dados, discussão e conclusão. A pesquisa foi delineada através da analise do estatuto da Sociedade de Socorro que é uma associação de mulheres de A Igreja de Jesus Cristo dos Santos dos últimos Dias conjuntamente com uma analise das politicas do SUS do PAISM e do programa de promoção e prevenção do câncer de colo uterino vigente em território brasileiro. Uma associação de mulheres em uma entidade religiosa possui um extraordinário trabalho, estabelecendo como propósito dessa organização de mulheres preparadas para as bênçãos da vida eterna, ajudando-as a aumentar sua fé e retidão pessoal, fortalecer a família e o lar, e auxiliar os necessitados. A educação em saúde nesses locais fortalecerá os princípios do SUS e a melhoria na condição de saúde das mulheres como proposito primordial. O cumprimento desse propósito se dará por meio de aulas proporcionadas pelos profissionais de saúdes e reforçada nas aulas do evangelho aos domingos e de outras reuniões, do trabalho de professoras visitantes, do serviço de bem-estar e do serviço de solidariedade. Sendo assim, venho advogar pela inclusão ou manutenção da educação permanente em saúde nas associações de mulheres nas mais diversas religiões.<br>The overall goal of this research is to demonstrate how an Association of Women in a religious entity may provide a favorable location for conducting health education with the purpose of providing knowledge in a safe environment while linking individual action and collective research experience that improves women's health and fighting a disease in Brazil that is the third leading cause of death of women in the country according to the Ministry of Health. Women's associations in religious bodies have their own statutes that establish the guidelines to be followed by the women. Through a prior knowledge of the status in Womens Associations in religious entities, the Comprehensive Care Program for Women's Health (CCPWH), knowledge of the Laws of the Unified Health System (UHS) and the program for prevention of cervical cancer, the professionals responsible for promoting health promotion, prevention and rehabilitation may have a conducive place where women individually and collectively feel safe to obtain knowledge, set goals, and achieve promotion and prevention for cervical cancer and overcome barriers faced by women in the Pap smear testing. The hypothesis of the study is that health professionals who work with continuing health education can and must use this environment to perform religious promotion, prevention and rehabilitation of all health policies advocated by the CCPWH. This is a qualitative research study based on hermeneutic-phenomenological directed method for analysis of theoretical studies, documents and texts. The phenomenon was described by the descriptive method for choosing the topic, bibliography, formatting the problem, formulating hypotheses, form reading and cataloging the material, delimitation of the research, data collection, discussion and conclusion. This research was designed through analyzing the status of the Relief Society, the association for women of The Church of Jesus Christ of Latter-day Saints, in conjunction with an analysis of the policies of the UHS with the CCPWH a program for promotion and cervical cancer prevention currently in force in Brazil. An association of women in a religious entity has an extraordinary work; establishing the purpose of this organization of women prepared for the blessings of eternal life by helping them to increase their faith and personal righteousness, strengthen families and homes, and help the needy. Health education in these locations will strengthen the principles of the UHS and improve the health status of women as a primary purpose. The fulfillment of this purpose will be through classes offered by health professionals and enhanced gospel classes on Sundays and other meetings, also through visiting teaching, welfare service, and compassionate service to the poor and needy. Therefore, come advocate for inclusion or maintenance of continuing health education in women's associations in various religions.
APA, Harvard, Vancouver, ISO, and other styles
3

VERHAEGHE, Jacques. "TESTING THE QUALITY OF A PCM OR PAM TELEMETRY SYSTEM." International Foundation for Telemetering, 1989. http://hdl.handle.net/10150/614495.

Full text
Abstract:
International Telemetering Conference Proceedings / October 30-November 02, 1989 / Town & Country Hotel & Convention Center, San Diego, California<br>Verifying the quality of a PCM (or PAM) telemetry system is an important concern before any launch. A frame simulator generated test is definitely inchoate to exercise the link’s real world disturbances response behavior. It should be completed with tests involving some disturbances measurements.
APA, Harvard, Vancouver, ISO, and other styles
4

Evans, Steven. "The molecular characterisation of pregnancy-associated plasma protein-A (PAPP-A)." Thesis, Sheffield Hallam University, 1996. http://shura.shu.ac.uk/19631/.

Full text
Abstract:
PAPP-A is a large glycoprotein with alpha2-electrophoretic mobility that is produced by the placenta during pregnancy. In this thesis a biochemical and molecular characterisation of PAPP-A was performed. The polyclonal antiserum (DAKO) directed against PAPP-A has been shown to also interact with proteins other than PAPP-A. These non-specific interactions were abolished by performing Western blotting immunodetection at a high salt concentration (0.6M NaCl). At this salt concentration a single band of 195 kDa was immunodetected and this corresponded to the monomeric PAPP-A molecule. It was also discovered that a subset of paratopes in this antiserum reacted, under the described high salt concentration conditions, with the glycan component of PAPP-A. A placental cDNA library was screened using this antibody for the PAPP-A cDNA but this did not yield a clone for PAPP-A. A possible explanation is that the interaction with this antibody requires carbohydrate components to be present on the PAPP-A molecule. It is known that proteins expressed in bacterial systems are not post-translationally modified. Therefore another approach to the isolation of the PAPP-A cDNA clone was adopted, but this required some primary amino acid sequence of this protein that was unavailable at the time. To generate this information, PAPP-A was purified using its previously unpublished affinity for L-arginine in combination with the already described procedures of ammonium sulphate precipitation, ion exchange and gel filtration. Final purification of PAPP-A was achieved by SDS-PAGE electrophoresis. The isolated monomeric PAPP-A gave a unique single N-terminal amino acid sequence: N-EARGATEEPS. The N terminal sequence combined with the sequence obtained from limited proteolytic digestion of PAPP-A were used to design oligonucleotide primers specific for PAPP-A. These primers were used in a PCR reaction that produced 500 and >1200 bp fragments using the cDNA library as DNA template; thus demonstrating that PAPP-A is synthesised in the placenta. PAPP-A was shown to have O and N-linked carbohydrate chains. Enzymatic deglycosylation demonstrated that the N-linked chains were 8% (w/w) of the molecule. The O-linked groups were extensively modified with the presence of oligomers of N-acetyl-glucosamine. It was also shown that it was these groups the PAPP-A antibodies bind to at high salt concentration. A physical interaction of PAPP-A with endoproteinase Arg-C (EGF-BP) was observed. It was seen that they form a 1:1 (PAPP-A: endoproteinase) sub-unit complex that was stable in SDS. A further investigation revealed that PAPP-A interacted with the endoproteinase Arg-C and this resulted in a 30% inhibition of the esterolytic activity of this enzyme.
APA, Harvard, Vancouver, ISO, and other styles
5

Mills, Nathan (Nathan Matthew). "Design and testing of a pan-tilt mechanism for severe environments." Thesis, Massachusetts Institute of Technology, 2016. http://hdl.handle.net/1721.1/104300.

Full text
Abstract:
Thesis: Nav. E., Massachusetts Institute of Technology, Department of Mechanical Engineering, 2016.<br>Thesis: S.M., Massachusetts Institute of Technology, Department of Mechanical Engineering, 2016.<br>Cataloged from PDF version of thesis.<br>Includes bibliographical references (page 210).<br>U.S. Navy ships have non-rotating radar and electronic warfare devices installed, which are often supported and trained by two-axis gimbals. In current shipboard solutions the payloads are often placed on a platform above the gimbal drive train, which results in high moment loads on drive components during a wave impact. As the payloads grow in size, the moment grows as well, and the current gimbal design is insufficient to support some payload geometries. This thesis presents a novel design for a low-mass two-axis machine that supports large payloads without large impact moments by locating the center of action along the axis of rotation. A functional prototype intended for shipboard installation was manufactured, assembled, and characterized in laboratory tests. The prototype was also subjected to environmental testing to military standards for temperature, vibration, and shock. Future improvements in machine function, promising areas for optimization, and an initial direction for taking the machine from prototype to product are presented.<br>by Nathan Mills.<br>Nav. E.<br>S.M.
APA, Harvard, Vancouver, ISO, and other styles
6

Chaturvedi, Vineet. "Mechanical Testing and Modeling of the Human Index Finger Distal Pad." University of Cincinnati / OhioLINK, 2015. http://rave.ohiolink.edu/etdc/view?acc_num=ucin1429272206.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Vondran, Jodi C. "A two pan feeding trial with companion dogs: considerations for future testing." Thesis, Kansas State University, 2013. http://hdl.handle.net/2097/15891.

Full text
Abstract:
Master of Science<br>Food Science<br>Edgar Chambers IV<br>Palatability of pet foods is judged by the use of animals in colonies. Pet food manufacturers would like to understand how palatable a food is compared to another food. This generally is accomplished by a two pan test where a pet has the opportunity to freely choose between two foods. Preference is evaluated through the use of an intake ratio, the ratio of the amount of test food consumed divided by the total amount of the foods consumed. Although this is easy to do in laboratories, another option would be to do such studies with animals in more ‘real-life’ home environments. The purpose of this study was to develop, and test a method to capture feeding information from a study of canines in the home environment and analyze the results of the palatability tests. Individual dog owners were screened for information on the household and pets. Twenty-five dogs of different ages, breeds and sizes were selected to participate on the in-home panel. Seven different palatability tests were performed using the in-home panel with four of those tests being replicated; a total of 11 comparative tests. These dogs were tested using a proprietary computer-based technology that collected information about intake of each food for each individual dog for a duration of seven days for each of the 11 comparative studies. Data was analyzed and resulted in showing that differences between foods can be found. Statistical analyses compared initial day one data to subsequent day data collected during each study to determine whether a full seven day test was needed. In addition, comparisons were made to compare the impact of prior foods eaten to subsequent preferences of the dogs. Results of the in-home panel were the same on day one as for all seven days of testing. Also, previous exposure to a food did not alter subsequent preference for that food. Such data has implications for pet food manufacturers related to timing and cost of testing.
APA, Harvard, Vancouver, ISO, and other styles
8

Fortner, Jason C. "Illuminating whole effluent toxicity testing : ultraviolet radiation, phototoxicity, and PAH-contaminated groundwater /." Online version, 2009. http://content.wwu.edu/cdm4/item_viewer.php?CISOROOT=/theses&CISOPTR=314&CISOBOX=1&REC=10.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Fu, Jiangbiao, and Jiaqi Song. "Model-based Testing of supporting testing of PAC based controlling systems in industrial plants - A case study in printing plants." Thesis, Blekinge Tekniska Högskola, Institutionen för programvaruteknik, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:bth-16753.

Full text
Abstract:
Context. Testing is a very critical process to evaluate whether a related function is correctly implemented in the control system. There is an upward trend to using PAC based control system in the automation production context. However, currently, most testing of PAC based controlling system is in manual testing, which has low efficiency and high complexity. Furthermore, there has been little research on the systematic testing of PAC in an industry environment. Objectives. Due to this problem, this study is to investigate whether a model-based testing method can overcome the challenge of manual testing and improve the testing effectiveness in PAC based controlling system. Methods. We use three steps to achieve the objective, and the first one is to implement a systematic mapping study to find existing model-based testing method that is using in the industrial area, what the process and the context. The second one is to implement a case study in a printing house, to see what the real challenge of manual testing, the third one is to find if exist MBT method could be used under such context to overcome challenges. Results. Through mapping study and case study, we found there are many testing methods and implement under diverse context, but none of them focus on the PAC based controlling system. And we found there exist MBT that also can be used in PAC based controlling system to mitigate some manual testing challenges. Conclusions. In our thesis, we implement a mapping study from 38 papers to collect data for existing model-based testing methods to have a deep understanding of this area. We found there are five main contexts that MBT are usually being used and we extract implement process and advantages and disadvantages for MBT methods which value to practitioners and researchers. And we conducted a case study in a printing house in Switzerland to observe the challenges of manual testing of PAC based controlling system. We found one exist MBT method that can be used in our context that makes the test case generation step more effective. And we proposed a simulation testing model that hopefully can address all the manual testing challenges by combined with the exist MBT method.
APA, Harvard, Vancouver, ISO, and other styles
10

Duan, Yuxia. "Probability of detection analysis for infrared nondestructive testing and evaluation with applications including a comparison with ultrasonic testing." Doctoral thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/25251.

Full text
Abstract:
La fiabilité d'une technique d’Évaluation Non-Destructive (END) est l'un des aspects les plus importants dans la procédure globale de contrôle industriel. La courbe de la Probabilité de Détection (PdD) est la mesure quantitative de la fiabilité acceptée en END. Celle-ci est habituellement exprimée en fonction de la taille du défaut. Chaque expérience de fiabilité en END devrait être bien conçue pour obtenir l'ensemble de données avec une source valide, y compris la technique de Thermographie Infrarouge (TI). La gamme des valeurs du rapport de l'aspect de défaut (Dimension / profondeur) est conçue selon nos expériences expérimentales afin d’assurer qu’elle vient du rapport d’aspect non détectable jusqu’à celui-ci soit détectable au minimum et plus large ensuite. Un test préliminaire est mis en œuvre pour choisir les meilleurs paramètres de contrôle, telles que l'énergie de chauffage, le temps d'acquisition et la fréquence. Pendant le processus de traitement des images et des données, plusieurs paramètres importants influent les résultats obtenus et sont également décrits. Pour la TI active, il existe diverses sources de chauffage (optique ou ultrason), des formes différentes de chauffage (pulsé ou modulé, ainsi que des méthodes différentes de traitement des données. Diverses approches de chauffage et de traitement des données produisent des résultats d'inspection divers. Dans cette recherche, les techniques de Thermographie Pulsée (TP) et Thermographie Modulée(TM) seront impliquées dans l'analyse de PdD. Pour la TP, des courbes PdD selon différentes méthodes de traitement de données sont comparées, y compris la Transformation de Fourier, la Reconstruction du Signal thermique, la Transformation en Ondelettes, le Contraste Absolu Différentiel et les Composantes Principales en Thermographie. Des études systématiques sur l'analyse PdD pour la technique de TI sont effectuées. Par ailleurs, les courbes de PdD en TI sont comparées avec celles obtenues par d'autres approches traditionnelles d’END.<br>The reliability of a Non-Destructive Testing and Evaluation (NDT&amp; E) technique is one of the most important aspects of the overall industrial inspection procedure. The Probability of Detection (PoD) curve is the accepted quantitative measure of the NDT&amp; E reliability, which is usually expressed as a function of flaw size. Every reliability experiment of the NDT&amp; E system must be well designed to obtain a valid source data set, including the infrared thermography (IRT) technique. The range of defect aspect ratio (Dimension / depth) values is designed according to our experimental experiences to make sure it is from non-detectable to minimum detectable aspect ratio and larger. A preliminary test will be implemented to choose the best inspection parameters, such as heating energy, the acquisition time and frequency. In the data and image processing procedure, several important parameters which influence the results obtained are also described. For active IRT, there are different heating sources (optical or ultrasound), heating forms (pulsed or lock-in) and also data processing methods. Distinct heating and data processing manipulations produce different inspection results. In this research, both optical Pulsed Thermography (PT) and Lock-in Thermography (LT) techniques will be involved in the PoD analysis. For PT, PoD curves of different data processing methods are compared, including Fourier Transform (FT), 1st Derivative (1st D) after Thermal Signal Reconstruction (TSR), Wavelet Transform (WT), Differential Absolute Contrast (DAC), and Principal Component Thermography (PCT). Systematic studies on PoD analysis for IRT technique are carried out. Additionally, constructed PoD curves of IRT technique are compared with those obtained by other traditional NDT&amp; E approaches.
APA, Harvard, Vancouver, ISO, and other styles
11

Cashel, Mary Louise. "Assessing Defensiveness with the PAI: a Cross Validational Study." Thesis, University of North Texas, 1994. https://digital.library.unt.edu/ark:/67531/metadc500994/.

Full text
Abstract:
The use of scales on the Personality Assessment Inventory (PAI) to detect defensiveness in criminal and nonclinical samples was evaluated. Forty-five male inmates of a county jail and 38 male undergraduate psychology students were provided with incentives to complete the PAI under two conditions: standard instructions and experimental instructions to feign a specific, positive role. The sequence of instructions was counterbalanced in both samples for the purpose of examining ordering effects. A repeated measures multivariate analysis of variance (MANOVA) was performed, yielding significant main effects of condition, group and order. Additionally, a step-wise discriminant function analysis significantly predicted group membership (i.e., subjects under honest and faking conditions) with a hit rate = 84.4%. Finally, a more effective cutting score for the Positive Impression scale was recommended.
APA, Harvard, Vancouver, ISO, and other styles
12

Lee, Michael W. "Microwave sensing of bulk electrical properties of tank track pad rubber." Thesis, Virginia Polytechnic Institute and State University, 1988. http://hdl.handle.net/10919/80089.

Full text
Abstract:
A complex permittivity measurement system composed of a network analyzer and a open-ended coaxial waveguide has been used to evaluate the permittivity of rubber samples. The conductivity of rubber provides an indication of the dispersion of carbon black throughout the rubber matrix. The technique is based on the Deschamps antenna modeling theorem which relates the effective admittance of an antenna in some arbitrary medium to the effective admittance of the same antenna embedded in free space. This technique is well suited for material with loss tangents between 0.1 and 1.0. Only material within a radius on the order of the outer conductor radius of the coaxial waveguide is interrogated. Inferred permittivity measurements for rubber samples are presented. An APC-7 connector is used as the transducer which provides a means for convenient calibration because standard calibration terminations can be used. The amount of pressure from the sample applied to the waveguide affects reflection coefficient measurements, preventing consistent results.<br>Master of Science
APA, Harvard, Vancouver, ISO, and other styles
13

Pardoel, Scott. "Development and Testing of a Passive Ankle Exoskeleton." Thesis, Université d'Ottawa / University of Ottawa, 2017. http://hdl.handle.net/10393/36498.

Full text
Abstract:
Aging is accompanied by a deterioration of physical abilities. For some this limits their mobility and thus their quality of life. Exoskeletons are a class of walking assist device that help reduce the effort required to walk. Currently, powered exoskeletons suffer from short battery life and thus limited usefulness. This thesis presents the design, fabrication, and testing of a novel unpowered ankle exoskeleton to assist normal walking over long distances. The design incorporates a Pneumatic Artificial Muscle (PAM) inflated and used as a passive air spring. To predict the behaviour of the PAM in this distinct application, a distinct dynamic model was developed to include the biaxial stress in the bladder as well as a polytropic gas assumption. Experimental testing was used to validate the model and indicated that the addition of the bladder stress enhanced the performance of the force prediction at low pressure but had negligible impact on the model at higher pressures. The experimental testing also showed that the temperature of the gas inside the PAM varies very slightly during passive elongation cycles, thus, validating an isothermal assumption. Once fabricated, the exoskeleton was tested in human walking trials. Electromyography results showed that the exoskeleton was able to reduced the muscular activation activation of the Soleus muscle, however the results also included a significant reduction in the angular range of motion of the ankle. This is thought to be attributed to an insufficient acclimatization period during the human testing. Furthermore, due to an improper fit of the exoskeleton, the clutch mechanism did not operate as designed, leading to a reduced range of motion of the ankle. The device demonstrated its ability to reduce the effort of the calf muscles during walking, however, further refinements of the device fitting and clutch mechanism are required.
APA, Harvard, Vancouver, ISO, and other styles
14

Rodrigues, David Ernest. "Structure property relationships in track pad rubber as a function of blending conditions." Thesis, Virginia Tech, 1987. http://hdl.handle.net/10919/40955.

Full text
Abstract:
<p>Tank track pads have been known to degrade rapidly under adverse conditions, especially during cross country service where the average life has been estimated to be 500 miles. Several factors have been identified as being the cause for such low service life. One of these is the 'quality of dispersion' which plays an important role in the performance of any rubber compound. In order to evaluate the effect of the quality of dispersion on the service life of rubber compounds, a controlled blending experiment was carried out with a recipe modeled on a standard track pad formula. Mechanisms of failure produced by a bad dispersion have been identified. Two interesting observations were made, one of which was the formation of voids and the other was crack propagation along flow lines which are directly relatable to processing conditions.</p><br>Master of Science
APA, Harvard, Vancouver, ISO, and other styles
15

Morimoto, Todd, and Cliff Sargent. ""Don't Leave the Pad Without It": Using Deployable Assets to Conduct Pre-Launch and On-Orbit Testing." International Foundation for Telemetering, 1993. http://hdl.handle.net/10150/611866.

Full text
Abstract:
International Telemetering Conference Proceedings / October 25-28, 1993 / Riviera Hotel and Convention Center, Las Vegas, Nevada<br>When hundreds of millions of dollars are invested in building, launching, and command/control of modern military space systems, the developers and operators need assurance that when their system achieves orbit, it will be able to "talk" with the ground network, exchanging commands, telemetry and ranging signals. Furthermore, prior to launch they need proof of compatibility with the ground data systems, showing that operational ground-based crypto keys, database parameters, and processing software are in-fact compatible with the spacecraft. This paper describes Air Force Materiel Command (AFMC), Space & Missile Center (SMC) Detachment 2's four classes of deployable test assets, emphasizing deployable's contribution to successful on-orbit performance. With not only the huge dollar investment, but even more important, the ability to execute a vital test or operational mission riding on compatibility, and launch vehicle and on-orbit test and evaluation operations the watchwords are "Don't leave the pad without it."
APA, Harvard, Vancouver, ISO, and other styles
16

Meyer, Steven. "CONFIGURING TELEMETRY SYSTEMS FOR HIGH-POWER-MICROWAVE TESTING." International Foundation for Telemetering, 1989. http://hdl.handle.net/10150/614467.

Full text
Abstract:
International Telemetering Conference Proceedings / October 30-November 02, 1989 / Town & Country Hotel & Convention Center, San Diego, California<br>During high-power microwave (HPM) testing, where the item under test is subjected to power levels up to several thousand W/cm , the RF energy present will make typical 2 telemetry RF links useless. Therefore, other means must be used to retrieve the data during the tests. One method to accomplish data retrieval is to replace the RF data link with a fiber-optic link. This is done by replacing the transmitter with a fiber-optic transmitter on the sending end and the RF receiver with a fiber-optic receiver on the receiving end. Although this sounds simple, it is not always so. Solutions for PCM and FM-FM systems are relatively straightforward, whereas PAM systems present a unique set of problems. This paper addresses possible solutions for PCM and FM-FM and three possible solutions for PAM, one being by using a PAM-to-PCM converter.
APA, Harvard, Vancouver, ISO, and other styles
17

Jacher, Joseph E. B. A. "Pulmonary Arterial Hypertension: Specialists’ Knowledge, Practices, and Attitudes of Genetic Testing and Genetic Counseling." University of Cincinnati / OhioLINK, 2015. http://rave.ohiolink.edu/etdc/view?acc_num=ucin1427797616.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Mhanna, Hussein. "Intégration du model-based testing dans un processus de développement logiciel." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASS115.

Full text
Abstract:
Les tests de logiciels jouent un rôle non négligeable en minimisant les coûts de développement de ces derniers. L'une des tendances les plus importantes pour cet objectif est l'utilisation du MBT (Model-Based Testing). Le MBT consiste à générer des tests de validation automatiquement en se basant sur un modèle personnalisé qui décrit certains aspects fonctionnels des SUT(System Under Test : Système Sous Test). Cependant, un modèle de test dédié doit être créé. Ce processus est consommateur de temps et de main d'œuvre et, par conséquent, il n'est pas largement adopté dans l'industrie. Dans notre travail, nous présentons une méthodologie pour faciliter l'utilisation du MBT dans les entreprises en utilisant des artefacts de projet pour créer automatiquement un modèle de test basé sur l'utilisation du SUT (ce que nous appelons un modèle d'usage). Dans nos travaux, nous nous concentrons sur la transformation des diagrammes de séquence UML en un modèle de test. Cette transformation se fera sur la base de la notion du context, qui est l'historique des événements précédents sur le SUT pour pouvoir factoriser et obtenir un modèle d'utilisation valide. Cette notion est très importante lorsque deux événements sont gérés différemment par le SUT en fonction de l'ensemble des entrées précédentes. Un cas d'étude académique modélisant une machine ATM (Automated Teller Machine) est présenté pour décrire le besoin et les problèmes associés. Ensuite notre méthodologie a été implémentée pour répondre à quelques exigences du projet National Clarity<br>Software testing plays a significant role in minimizing software development costs. One of the most important trends for this goal is the use of MBT (Model-Based Testing). MBT consists on automatically generating validation tests from a personalized model describing certain functional aspects of the system under test (SUT). However, a dedicated test model must be created. This process is time and labor consuming and therefore not widely used in the industry. In our work, we present a methodology to facilitate the use of MBT in companies by using project artifacts to automatically create a test model based on the use of SUT (what we call a usage model). In our work, we focus on transforming UML sequence diagrams into a test model.This transformation will be done on the basis of the notion of context, which is the history of previous events on the SUT in order to factorize and obtain a valid usage model. This notion is very important when two events are managed differently by the SUT according to all of the previous inputs of this SUT. An academic case study modeling an ATM (Automated Teller Machine) is presented to describe the need and the associated problems. Then, our methodology is implemented to meet some requirements of the French project Clarity
APA, Harvard, Vancouver, ISO, and other styles
19

Bergknut, Magnus. "Characterization of PAH-contaminated soils focusing on availability, chemical composition and biological effects." Doctoral thesis, Umeå : Umeå University, 2006. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-789.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Argui, Imane. "A vision-based mixed-reality framework for testing autonomous driving systems." Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMIR37.

Full text
Abstract:
Cette thèse explore le développement et la validation des systèmes de navigation autonome dans un environnement de réalité mixte (RM), avec pour objectif de combler l’écart entre la simulation virtuelle et les tests en conditions réelles. Les travaux mettent l’accent sur le potentiel des environnements en réalité mixte pour tester les systèmes autonomes de manière sûre, efficace et économique. La thèse est structurée en plusieurs parties, et commence par une revue des technologies de pointe dans la navigation autonome et les applications en réalité mixte. En utilisant des modèles à base de règles et des modèles d’apprentissage, des expérimentations visent à évaluer les performances des robots autonomes dans des environnements simulés, réels et de RM. Un des objectifs principaux est de réduire le « reality gap »—c’est-à-dire la différence entre les comportements observés en simulation et ceux observés dans des applications réelles—en intégrant des éléments réels avec des composants virtuels dans des environnements de RM. Cette approche permet des tests et une validation plus proche des contraintes réelles sans les risques associés aux essais physiques. Une partie importante du travail est consacrée à la mise en œuvre et au test d’une stratégie d’augmentation hors ligne visant à améliorer les capacités de perception des systèmes autonomes à l’aide des informations de profondeur. De plus, l’apprentissage par renforcement est appliqué pour évaluer son potentiel dans les environnements de RM. La thèse démontre que ces modèles peuvent apprendre efficacement à naviguer et à éviter les obstacles dans des simulations virtuelles et obtenir des résultats similaires lorsqu’ils sont transférés dans des environnements de RM, soulignant la flexibilité du cadre pour différents modèles de systèmes autonomes. À travers ces expériences, la thèse montre le potentiel des environnements de réalité mixte comme une plateforme polyvalente et robuste pour faciliter le développement des technologies de navigation autonome, offrant une approche plus sûre et plus évolutive pour la validation des modèles avant leur déploiement dans le monde réel<br>This thesis explores the development and validation of autonomous navigation systems within a mixed-reality (MR) framework, aiming to bridge the gap between virtual simulation and real-world testing. The research emphasizes the potential of MR environments for safely, efficiently, and cost-effectively testing autonomous systems. The thesis is structured around several chapters, beginning with a review of state-of-the-art technologies in autonomous navigation and mixed-reality applications. Through both rule-based and learning-based models, the research investigates the performance of autonomous robots within simulated, real, and MR environments. One of the core objectives is to reduce the "reality gap"—the discrepancy between behaviors observed in simulations versus real-world applications—by integrating real- world elements with virtual components in MR environments. This approach allows for more accurate testing and validation of algorithms without the risks associated with physical trials. A significant part of the work is dedicated to implementing and testing an offline augmentation strategy aimed at enhancing the perception capabilities of autonomous systems using depth information. Furthermore, reinforcement learning (RL) is applied to evaluate its potential within MR environments. The thesis demonstrates that RL models can effectively learn to navigate and avoid obstacles in virtual simulations and perform similarly well when transferred to MR environments, highlighting the framework’s flexibility for different autonomous system models. Through these experiments, the thesis establishes MR environments as a versatile and robust platform for advancing autonomous navigation technologies, offering a safer, more scalable approach to model validation before real-world deployment
APA, Harvard, Vancouver, ISO, and other styles
21

Berriri, Asma. "Model based testing techniques for software defined networks." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLL017.

Full text
Abstract:
Les réseaux logiciels (connus sous l'éppellation: Software Defined Networking, SDN), qui s'appuient sur le paradigme de séparation du plan de contrôle et du plan d'acheminement, ont fortement progressé ces dernières années pour permettre la programmabilité des réseaux et faciliter leur gestion. Reconnu aujourd'hui comme des architectures logicielles pilotées par des applications, offrant plus de programmabilité, de flexibilité et de simplification des infrastructures, les réseaux logiciels sont de plus en plus largement adoptés et graduellement déployés par l'ensemble des fournisseurs. Néanmoins, l'émergence de ce type d'architectures pose un ensemble de questions fondamentales sur la manière de garantir leur correct fonctionnement. L'architecture logicielle SDN est elle-même un système complexe à plusieurs composants vulnérable aux erreurs. Il est essentiel d'en assurer le bon fonctionnement avant déploiement et intégration dans les infrastructures.Dans la littérature, la manière de réaliser cette tâche n'a été étudiée de manière approfondie qu'à l'aide de vérification formelle. Les méthodes de tests s'appuyant sur des modèles n'ont guère retenu l'attention de la communauté scientifique bien que leur pertinence et l'efficacité des tests associés ont été largement demontrés dans le domaine du développement logiciel. La création d'approches de test efficaces et réutilisables basées sur des modèles nous semble une approche appropriée avant tout déploiement de réseaux virtuels et de leurs composants. Le problème abordé dans cette thèse concerne l'utilisation de modèles formels pour garantir un comportement fonctionnel correct des architectures SDN ainsi que de leurs composants. Des approches formelles, structurées et efficaces de génération de tests sont les principale contributions de la thèse. En outre, l'automatisation du processus de test est mis en relief car elle peut en réduire considérablement les efforts et le coût.La première contribution consiste en une méthode reposant sur l'énumération de graphes et qui vise le test fonctionnel des architectures SDN. En second lieu, une méthode basée sur un circuit logique est développée pour tester la fonctionnalité de transmission d'un commutateur SDN. Plus loin, cette dernière méthode est étendue pour tester une application d'un contrôleur SDN. De plus, une technique basée sur une machine à états finis étendus est introduite pour tester la communication commutateur-contrôleur.Comme la qualité d'une suite de tests est généralement mesurée par sa couverture de fautes, les méthodes de test proposées introduisent différents modèles de fautes et génèrent des suites de tests avec une couverture de fautes guarantie<br>Having gained momentum from its concept of decoupling the traffic control from the underlying traffic transmission, Software Defined Networking (SDN) is a new networking paradigm that is progressing rapidly addressing some of the long-standing challenges in computer networks. Since they are valuable and crucial for networking, SDN architectures are subject to be widely deployed and are expected to have the greatest impact in the near future. The emergence of SDN architectures raises a set of fundamental questions about how to guarantee their correctness. Although their goal is to simplify the management of networks, the challenge is that the SDN software architecture itself is a complex and multi-component system which is failure-prone. Therefore, assuring the correct functional behaviour of such architectures and related SDN components is a task of paramount importance, yet, decidedly challenging.How to achieve this task, however, has only been intensively investigated using formal verification, with little attention paid to model based testing methods. Furthermore, the relevance of models and the efficiency of model based testing have been demonstrated for software engineering and particularly for network protocols. Thus, the creation of efficient and reusable model based testing approaches becomes an important stage before the deployment of virtual networks and related components. The problem addressed in this thesis relates to the use of formal models for guaranteeing the correct functional behaviour of SDN architectures and their corresponding components. Formal, and effective test generation approaches are in the primary focus of the thesis. In addition, automation of the test process is targeted as it can considerably cut the efforts and cost of testing.The main contributions of the thesis relate to model based techniques for deriving high quality test suites. Firstly, a method relying on graph enumeration is proposed for the functional testing of SDN architectures. Secondly, a method based on logic circuit is developed for testing the forwarding functionality of an SDN switch. Further on, the latter method is extended to test an application of an SDN controller. Additionally, a technique based on an extended finite state machine is introduced for testing the switch-to-controller communication. As the quality of a test suite is usually measured by its fault coverage, the proposed testing methods introduce different fault models and seek for test suites with guaranteed fault coverage that can be stated as sufficient conditions for a test suite completeness / exhaustiveness
APA, Harvard, Vancouver, ISO, and other styles
22

Rocha, Silva Thiago. "A behavior-driven approach for specifying and testing user requirements in interactive systems." Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30075/document.

Full text
Abstract:
Dans un processus de conception centré sur l'utilisateur, les artefacts évoluent par cycles itératifs jusqu'à ce qu'ils répondent aux exigences des utilisateurs et deviennent ensuite le produit final. Chaque cycle donne l'occasion de réviser la conception et d'introduire de nouvelles exigences qui pourraient affecter les artefacts qui ont été définis dans les phases de développement précédentes. Garder la cohérence des exigences dans tels artefacts tout au long du processus de développement est une activité lourde et longue, surtout si elle est faite manuellement. Actuellement, certains cadres d'applications implémentent le BDD (Développement dirigé par le comportement) et les récits utilisateur comme un moyen d'automatiser le test des systèmes interactifs en construction. Les tests automatisés permettent de simuler les actions de l'utilisateur sur l'interface et, par conséquent, de vérifier si le système se comporte correctement et conformément aux exigences de l'utilisateur. Cependant, les outils actuels supportant BDD requièrent que les tests soient écrits en utilisant des événements de bas niveau et des composants qui n'existent que lorsque le système est déjà implémenté. En conséquence d'un tel bas niveau d'abstraction, les tests BDD peuvent difficilement être réutilisés avec des artefacts plus abstraits. Afin d'éviter que les tests doivent être écrits sur chaque type d'artefact, nous avons étudié l'utilisation des ontologies pour spécifier à la fois les exigences et les tests, puis exécuter des tests dans tous les artefacts partageant les concepts ontologiques. L'ontologie fondée sur le comportement que nous proposons ici vise alors à élever le niveau d'abstraction tout en supportant l'automatisation de tests dans des multiples artefacts. Cette thèse présente tel ontologie et une approche fondée sur BDD et les récits utilisateur pour soutenir la spécification et l'évaluation automatisée des exigences des utilisateurs dans les artefacts logiciels tout au long du processus de développement des systèmes interactifs. Deux études de cas sont également présentées pour valider notre approche. La première étude de cas évalue la compréhensibilité des spécifications des récits utilisateur par une équipe de propriétaires de produit (POs) du département en charge des voyages d'affaires dans notre institut. À l'aide de cette première étude de cas, nous avons conçu une deuxième étude pour démontrer comment les récits utilisateur rédigés à l'aide de notre ontologie peuvent être utilisées pour évaluer les exigences fonctionnelles exprimées dans des différents artefacts, tels que les modèles de tâche, les prototypes d'interface utilisateur et les interfaces utilisateur à part entière. Les résultats ont montré que notre approche est capable d'identifier même des incohérences à grain fin dans les artefacts mentionnés, permettant d'établir une compatibilité fiable entre les différents artefacts de conception de l'interface utilisateur<br>In a user-centered design process, artifacts evolve in iterative cycles until they meet user requirements and then become the final product. Every cycle gives the opportunity to revise the design and to introduce new requirements which might affect the artifacts that have been set in former development phases. Keeping the consistency of requirements in such artifacts along the development process is a cumbersome and time-consuming activity, especially if it is done manually. Nowadays, some software development frameworks implement Behavior-Driven Development (BDD) and User Stories as a means of automating the test of interactive systems under construction. Automated testing helps to simulate user's actions on the user interface and therefore check if the system behaves properly and in accordance with the user requirements. However, current tools supporting BDD requires that tests should be written using low-level events and components that only exist when the system is already implemented. As a consequence of such low-level of abstraction, BDD tests can hardly be reused with more abstract artifacts. In order to prevent that tests should be written to every type of artifact, we have investigated the use of ontologies for specifying both requirements and tests once, and then run tests on all artifacts sharing the ontological concepts. The resultant behavior-based ontology we propose herein is therefore aimed at raising the abstraction level while supporting test automation on multiple artifacts. This thesis presents this ontology and an approach based on BDD and User Stories to support the specification and the automated assessment of user requirements on software artifacts along the development process of interactive systems. Two case studies are also presented to validate our approach. The first case study evaluates the understandability of User Stories specifications by a team of Product Owners (POs) from the department in charge of business trips in our institute. With the help of this first case study, we designed a second one to demonstrate how User Stories written using our ontology can be used to assess functional requirements expressed in different artifacts, such as task models, user interface (UI) prototypes, and full-fledged UIs. The results have shown that our approach is able to identify even fine-grained inconsistencies in the mentioned artifacts, allowing establishing a reliable compatibility among different user interface design artifacts
APA, Harvard, Vancouver, ISO, and other styles
23

Poncelet, Sanchez Clément. "Model-based testing real-time and interactive music systems." Electronic Thesis or Diss., Paris 6, 2016. http://www.theses.fr/2016PA066548.

Full text
Abstract:
Est-il possible de tester automatiquement le comportement temporisé des systèmes interactifs temps réel ? Ces travaux proposent une solution en fournissant un ensemble d’outils de test basé sur modèles pour Systèmes Musicaux Interactifs (SMI). Les SMIs doivent calculer et réagir pendant une performance musicale et ainsi accompagner les musiciens. Certains de ces SMIs peuvent être basés sur partition et doivent, dans ce cas, suivre à tout prix les contraintes temporelles imposées par le document haut-niveau appelé partition. En somme, pendant une performance, le système doit réagir en temps réel aux signaux audio venant des musiciens en suivant cette partition. Ceci demande au système une forte fiabilité temporelle et une robustesse face aux erreurs pouvant arriver en entrée du système. Hors, la vérification formelle de propriétés, comme la fiabilité temporelle avant l’exécution du système lors d’une performance, est insuffisamment traitée par la communauté de l’informatique musicale. Nous présentons dans cette thèse, la réalisation d’un ensemble d’outils de test basé sur modèles appliqué à un SMI. Il est à noter que ces outils de test ont été définis formellement dans le but de tester plus généralement le comportement temporelle des systèmes interactifs temps réel prenant en compte des évènements discrets et des durées définissables sur des échelles multiples. Pour ce résumé nous présentons rapidement l’état de l’art de nos travaux avant d’introduire la définition de notre modèle créé pour spécifier les aspects évènementiel («event-triggerred») et temporel («timed-driven») des SMIs. Ce modèle a la particularité d’être automatiquement construit depuis les conditions temporelles définies dans un document haut-niveau et peut être traduit vers un réseau d’Automates Temporisés (TA). Dans le cadre de la performance musique mixte électronique/instrumentale nous avons introduit une notion de durée multi-temps gérée par notre modèle et une génération de trace d’entrée musicalement pertinente par notre ensemble d’outils de test. Pour tester un SMI selon les différentes attentes de l’utilisateur, notre ensemble d’outils a été implémenté avec plusieurs options possibles. Parmi ces options, la possibilité de tester automatiquement, selon une approche différée ou temps réel, la conformité temporelle du SMI est proposée. En effet, l’approche différée utilise des outils de la gamme du logiciel Uppaal [44] pour générer une suite de traces d’entrées exhaustive et garantir la conformité temporelle du système testé. Il est également possible de tester une trace d’entrée particulière ou une version altérée («fuzzed») de la trace idéale définie par la partition. L’approche temps réel interprète quand-à elle directement le modèle comme des instructions de byte-code grâce à une machine virtuelle. Finalement, des expériences ont été conduites via une étude de cas sur le suiveur de partition Antescofo. Ces expériences ont permis de tester ce système et d’évaluer notre ensemble d’outils et ses différentes options. Ce cas d’étude applique nos outils de test sur Antescofo avec succès et a permit d’identifier des bogues parfois non triviaux dans ce SMI<br>Can real-time interactive systems be automatically timed tested ? This work proposes an answer to this question by providing a formal model based testing framework for Interactive Music Systems (IMS). IMSs should musically perform computations during live performances, accompanying and acting like real musicians. They can be score-based, and in this case must follow at all cost the timed high-level requirement given beforehand, called score. During performance, the system must react in real-time to audio signals from musicians according to this score. Such goals imply strong needs of temporal reliability and robustness to unforeseen errors in input. Be able to formally check this robustness before execution is a problem insufficiently addressed by the computer music community. We present, in this document, the concrete application of a Model-Based Testing (MBT) framework to a state-of-the-art IMS. The framework was defined on purpose of testing real-time interactive systems in general. We formally define the model in which our method is based. This model is automatically constructed from the high-level requirements and can be translated into a network of time automata. The mixed music environment implies the management of a multi-timed context and the generation of musically relevant input data through the testing framework. Therefore, this framework is both time-based, permitting durations related to different time units, and event-driven, following the musician events given in input. In order to test the IMS against the user’s requirements, multiple options are provided by our framework. Among these options, two approaches, offline and online, are possible to assess the system timed conformance fully automatically, from the requirement to the verdict. The offline approach, using the model-checker Uppaal, can generate a covering input suite and guarantee the system time reliability, or only check its behavior for a specific or fuzzed input sequence. The online approach, directly interprets the model as byte-code instructions thanks to a virtual machine. Finally, we perform experiments on a real-case study: the score follower Antescofo. These experiments test the system with a benchmark of scores and a real mixed-score given as input requirements in our framework. The results permit to compare the different options and scenarios in order to evaluate the framework. The application of our fully automatic framework to real mixed scores used in concerts have permitted to identify bugs in the target IMS
APA, Harvard, Vancouver, ISO, and other styles
24

Peycheva, Kira. "Nondestructive testing of metals and composite materials using ultrasound thermography : Comparison with pulse-echo ultrasonics." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/29592/29592.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Ribaud, Florian. "Analysis of Multipath Channel Reduction Models for the Testing of Realistic GNSS Receivers." Phd thesis, Toulouse, INPT, 2016. http://oatao.univ-toulouse.fr/17680/1/Ribaud_Florian.pdf.

Full text
Abstract:
This PhD work relates the development of multipath channel reduction methods, putting the emphasis on the preservation of the signal tracking performances of satellite navigation systems. It aims at adapting the land mobile channel models to the realistic testing of GNSS receivers, by reducing drastically the number of multipaths of the original channel model (from thousands to less than 10 typically) all by conserving the pseudo-range error. Three types of methods have been investigated in order to cover all different possibilities of reduction processes. As a first approach, a multipath aggregation method has been considered, through the clustering of the multipaths according to the delay and Doppler dimensions, weighted by their power. Even if this method allows a good preservation of the delay and Doppler characteristics of the original channel, a second approach has been investigated, oriented toward the optimization of the parameters of the reduced channel (delay, Doppler shift, phase and amplitude) in order to minimize the difference between the original channel correlation function and the reduced one. Even if this approach gives good performances in terms of pseudorange error preservation, it leads to the instability of the reduced channel echoes. Therefore, a statistical method has been implemented, considering that the delays of the reduced channel evolve according to a first order Markov process. These three approaches have been compared through the preservation of the discriminator open loop error. In particular conditions concerning the number of echoes in the reduced channel or the elevation of the emitter satellite, the clustering technique implemented in first approach appears to equal the performances of the parametric method, the statistical approach giving systematically the worst performances. The invariance of this hierarchy as adding tracking loops to the simulation or changing the signal model (modulation and RF bandwidth) allows extending the conclusion. Being given the significant advantage of the clustering on the parametric method in terms of computation time, the use of this method is preconized to address the channel reduction problem. In particular, the weighted clustering technique developed in this thesis offers the possibility to reproduce the wide-band characteristics of a channel model composed of thousands of multipaths with less than 10 echoes. Moreover, it constitutes an interesting tradeoff between computational effort and GNSS systems pseudo-range error conservation, approaching the performances of parametric methods, and even overcoming them in some conditions, with a computation time close to the real time.
APA, Harvard, Vancouver, ISO, and other styles
26

Deng, Xiaodong. "Nondestructive evaluation of thermal sprayed coating by acoustic microscopy and Eddy current testing." Thesis, Lyon, INSA, 2014. http://www.theses.fr/2014ISAL0030/document.

Full text
Abstract:
La thèse a mis en œuvre deux méthodes inverses pour l’évaluation non destructive d’un milieu multicouche anisotrope : la microscopie acoustique et les courants de Foucault. Pour la microscopie acoustique, nous avons adapté un modèle de propagation de l'onde acoustique dans un milieu multicouche, en calculant les coefficients de réflexion et de transmission d’un revêtement multicouche sur un substrat et en modélisant la réponse acoustique V(z) propre à la microscopie acoustique. Une méthode inverse utilisant l’algorithme de Levenberg-Marquardt donne accès à l’épaisseur, au module de Young et à la densité du revêtement. Pour les courants de Foucault, une méthode inverse similaire basée sur le formalisme de Tree a été mise au point, qui donne accès à l’épaisseur, à la conductivité électrique et à la perméabilité magnétique du revêtement. Après des vérifications de l’algorithme sur des matériaux massifs de référence, nous avons appliqué ces méthodes à un métal revêtu pour tuyauteries de centrale thermique : de l’acier inoxydable austénitique type 304 revêtu par pulvérisation thermique de superalliage Hastelloy C22 à base de nickel. La corrosion sèche sous l’effet des gaz chauds (air contenant du gaz SO2) amincit graduellement la paroi des tubes, ce qui peut les rendre dangereux. Il a fallu tenir compte de l’effet du grenaillage préalable à la pulvérisation, qui crée une mince couche de martensite à laquelle les courants de Foucault sont très sensibles : un modèle à trois couches substrat / martensite / revêtement a été utilisé. Nous avons caractérisé des échantillons de métal avant et après exposition à l’air avec ou sans SO2 à 650°C. Les deux méthodes d’évaluation non destructive permettent une détermination très satisfaisante de l’épaisseur de revêtement et se complètent bien. L’évaluation des caractéristiques physiques (acoustiques et électromagnétiques) met en évidence des hétérogénités du revêtement liées à son mode d’élaboration et des évolutions au cours du temps. Des pistes d’amélioration des méthodes sont proposées<br>In the current work, we investigate the nondestructive evaluation of a thermal sprayed coating (Hastelloy C22 Ni-based alloy) on substrate (type 304 austenitic stainless steel) using acoustic microscopy and ECT method. Two models were built for the evaluation of this kind of material: one is for acoustic V(z) measurement and the other is for swept eddy current measurement. The implementation of these two models is used for the evaluation and properties measurement of the thermal sprayed coatings, such as elastic properties, electromagnetic properties. In particular, the main achievements and results are as follows: 1. Acoustic wave propagation in an anisotropic multilayered medium was investigated. The formula for calculating the reflection and transmission coefficients of the multilayered medium on or without a substrate were derived, which is necessary for the modeling of acoustic V(z) measurement of the thermal sprayed coating on substrate. 2. A model was built for the acoustic V(z) measurement of the thermal sprayed coatings on substrate, which can deal with anisotropic multilayered media. Specifically, we used a model of multilayered coatings with graded properties on substrate to calculate the acoustic reflection coefficient of our sample. Treating the thermal sprayed coating, deposited on a 304 steel substrate, as FGMs, we evaluated the coating thickness and the Young’s modulus evolution along the depth of the coating. 3. A model was built for the swept eddy current measurement of the thermal sprayed coatings. Since before the spraying process, the surface of the substrate is usually shot-peened (SP), the coated material is considered as a three-layer medium. The coating thickness and electromagnetic properties of each of the 3 layers were determined by an effective reverse process. 4. The thermal sprayed coated material after exposure in different conditions, i.e., as-received, heat-treated in air and heat-treated in SO2 environment, and after different exposure time was evaluated by the integrity of acoustic microscopy and ECT method. The coating thickness and the electromagnetic properties of the coated material under different conditions were measured
APA, Harvard, Vancouver, ISO, and other styles
27

Berriri, Asma. "Model based testing techniques for software defined networks." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLL017/document.

Full text
Abstract:
Les réseaux logiciels (connus sous l'éppellation: Software Defined Networking, SDN), qui s'appuient sur le paradigme de séparation du plan de contrôle et du plan d'acheminement, ont fortement progressé ces dernières années pour permettre la programmabilité des réseaux et faciliter leur gestion. Reconnu aujourd'hui comme des architectures logicielles pilotées par des applications, offrant plus de programmabilité, de flexibilité et de simplification des infrastructures, les réseaux logiciels sont de plus en plus largement adoptés et graduellement déployés par l'ensemble des fournisseurs. Néanmoins, l'émergence de ce type d'architectures pose un ensemble de questions fondamentales sur la manière de garantir leur correct fonctionnement. L'architecture logicielle SDN est elle-même un système complexe à plusieurs composants vulnérable aux erreurs. Il est essentiel d'en assurer le bon fonctionnement avant déploiement et intégration dans les infrastructures.Dans la littérature, la manière de réaliser cette tâche n'a été étudiée de manière approfondie qu'à l'aide de vérification formelle. Les méthodes de tests s'appuyant sur des modèles n'ont guère retenu l'attention de la communauté scientifique bien que leur pertinence et l'efficacité des tests associés ont été largement demontrés dans le domaine du développement logiciel. La création d'approches de test efficaces et réutilisables basées sur des modèles nous semble une approche appropriée avant tout déploiement de réseaux virtuels et de leurs composants. Le problème abordé dans cette thèse concerne l'utilisation de modèles formels pour garantir un comportement fonctionnel correct des architectures SDN ainsi que de leurs composants. Des approches formelles, structurées et efficaces de génération de tests sont les principale contributions de la thèse. En outre, l'automatisation du processus de test est mis en relief car elle peut en réduire considérablement les efforts et le coût.La première contribution consiste en une méthode reposant sur l'énumération de graphes et qui vise le test fonctionnel des architectures SDN. En second lieu, une méthode basée sur un circuit logique est développée pour tester la fonctionnalité de transmission d'un commutateur SDN. Plus loin, cette dernière méthode est étendue pour tester une application d'un contrôleur SDN. De plus, une technique basée sur une machine à états finis étendus est introduite pour tester la communication commutateur-contrôleur.Comme la qualité d'une suite de tests est généralement mesurée par sa couverture de fautes, les méthodes de test proposées introduisent différents modèles de fautes et génèrent des suites de tests avec une couverture de fautes guarantie<br>Having gained momentum from its concept of decoupling the traffic control from the underlying traffic transmission, Software Defined Networking (SDN) is a new networking paradigm that is progressing rapidly addressing some of the long-standing challenges in computer networks. Since they are valuable and crucial for networking, SDN architectures are subject to be widely deployed and are expected to have the greatest impact in the near future. The emergence of SDN architectures raises a set of fundamental questions about how to guarantee their correctness. Although their goal is to simplify the management of networks, the challenge is that the SDN software architecture itself is a complex and multi-component system which is failure-prone. Therefore, assuring the correct functional behaviour of such architectures and related SDN components is a task of paramount importance, yet, decidedly challenging.How to achieve this task, however, has only been intensively investigated using formal verification, with little attention paid to model based testing methods. Furthermore, the relevance of models and the efficiency of model based testing have been demonstrated for software engineering and particularly for network protocols. Thus, the creation of efficient and reusable model based testing approaches becomes an important stage before the deployment of virtual networks and related components. The problem addressed in this thesis relates to the use of formal models for guaranteeing the correct functional behaviour of SDN architectures and their corresponding components. Formal, and effective test generation approaches are in the primary focus of the thesis. In addition, automation of the test process is targeted as it can considerably cut the efforts and cost of testing.The main contributions of the thesis relate to model based techniques for deriving high quality test suites. Firstly, a method relying on graph enumeration is proposed for the functional testing of SDN architectures. Secondly, a method based on logic circuit is developed for testing the forwarding functionality of an SDN switch. Further on, the latter method is extended to test an application of an SDN controller. Additionally, a technique based on an extended finite state machine is introduced for testing the switch-to-controller communication. As the quality of a test suite is usually measured by its fault coverage, the proposed testing methods introduce different fault models and seek for test suites with guaranteed fault coverage that can be stated as sufficient conditions for a test suite completeness / exhaustiveness
APA, Harvard, Vancouver, ISO, and other styles
28

Verma, Ravi. "Interaction of ultrasonic waves with frictional defects in the context of nondestructive testing of materials." Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILN063.

Full text
Abstract:
Cette thèse porte sur les concepts théoriques, les modèles et les expériences concernant la propagation des ondes élastiques et les vibrations dans les solides contenant des contacts internes (fissures, délaminations, etc.) ayant une nature frictionnelle.Une partie essentielle du travail est liée au développement d'une méthode d'acoustique numérique capable d'imiter les ondes élastiques dans un environnement contenant des fissures/contacts de frottement. Ces défauts planaires représentent une sorte de frontière intérieure à laquelle il convient d'appliquer des conditions limites appropriées. Selon les hypothèses de modélisation, les surfaces des fissures peuvent être considérées comme planes ou rugueuses. Nous développons ici en détail les arguments montrant que la rugosité, bien qu'elle introduise une complexification supplémentaire, aboutit finalement à une description plus élégante du contact par rapport aux interfaces planes. En particulier, le contact de surfaces rugueuses isotropes peut être représenté efficacement comme un contact entre deux corps axisymétriques. Cette dernière situation ressemble beaucoup à la mécanique de Cattaneo-Mindlin (ou Hertz-Mindlin) dans laquelle deux sphères sont excitées mécaniquement par une force oblique.Un autre élément du modèle acoustique numérique que nous présentons ici est une description standard par éléments finis des ondes élastiques dans les matériaux solides (unité de mécanique des solides dans un progiciel FEM commercial). Des efforts techniques ont été faits pour intégrer un modèle de contact défini par l'utilisateur comme condition limite dans l'unité de mécanique des solides. En conséquence, un modèle complet a été obtenu qui incorpore les interactions frictionnelles de contact induites par les ondes, décrites à partir des premiers principes de la mécanique des contacts.Un progrès essentiel par rapport aux travaux précédents est lié à l'application du modèle élaboré à un cas qui correspond à une technique connue d'essais non destructifs acoustiques non linéaires. La technique choisie est basée sur l'excitation d'un échantillon avec une onde harmonique qui, après l'achèvement d'un régime transitoire, entraîne une réponse purement harmonique d'un échantillon intact, alors que la réponse d'un échantillon endommagé présentera une anharmonicité. Les harmoniques générées forment leur propre modèle d'onde stationnaire qui peut avoir un maximum clair autour du défaut. Dans la pratique, les mesures de signaux de surface sont effectuées par vibrométrie laser ; notre modélisation représente donc une tentative d'imiter l'expérience de contrôle non destructif par vibrométrie laser dans des conditions géométriques simplifiées, mais en adhérant pleinement à son idéologie.Les conditions simplifiées sont prises de manière à réduire le temps de calcul. L'hypothèse la plus importante est une géométrie en 2D qui empêche immédiatement toute comparaison quantitative avec l'expérience. D'autres simplifications sont discutées plus en détail ci-dessous. Tout en conservant la méthodologie générale proche des principes expérimentaux, nous générons un grand nombre d'images synthétiques non linéaires d'une fissure isolée immergée dans un fragment d'une plaque solide. Nous analysons en détail l'influence des paramètres géométriques et physiques du système dans les cas d'excitations à une et deux fréquences.Enfin, nous nous concentrons sur le cas le plus proche des conditions expérimentales réelles en termes de géométrie de l'échantillon et de conditions aux limites sélectionnées. Une comparaison préliminaire entre la théorie et l'expérience est présentée.D'une manière générale, les résultats de cette thèse pourraient intéresser les chercheurs impliqués dans des expériences de CND acoustiques non linéaires ainsi que ceux qui cherchent des applications de modèles de contact semi-analytiques modernes basés sur les principes de Cattaneo-Mindlin<br>This thesis concerns theoretical concepts, models, and experiments for elastic wave propagation and vibrations in solids containing internal contacts (cracks, delaminations, etc.) having frictional nature. The study is oriented to nondestructive testing and therefore focuses on the case where the material contains few cracks of known configuration, in contrast to microcracked solids in which a statistical ensemble of a large number of internal contacts is present.An essential part of the work is related to a development of a method of numerical acoustics capable of imitating elastic waves in an environment containing frictional cracks/contacts. These planar defects represent a sort of inner boundaries at which appropriate boundary conditions should set. These boundary conditions are set using an original model for frictional interaction based on Cattaneo-Mindlin (or Hertz-Mindlin) mechanics in which two spheres are mechanically excited with an oblique force. The known solutions are extended to the case of rough surfaces and arbitrary in time oblique excitation.Another component of the numerical acoustics model we present here is a standard finite element description for elastic waves in solid materials (solid mechanics unit in a commercial FEM package). Some technical efforts have been made to integrate a user-defined contact model as a boundary condition into the solid mechanics unit. As a result, a complete model has been obtained that incorporates wave-induced contact frictional interactions described starting from first principles of contact mechanics.An essential progress in comparison to previous works is related to application of the elaborated model to a case that corresponds to a known technique of nonlinear acoustic nondestructive testing. The chosen technique is based on excitation of a sample with a harmonics wave that, after completion of a transient regime, results in a purely harmonic response of an intact sample, whereas the response of a damaged sample will present anharmonicity. The generated harmonics form its own standing wave pattern that can have a clear maximum around the defect. In practice, surface signal measurements are done via laser vibrometry; our modeling therefore represents an attempt to imitate laser vibromenry NDT experiment in geometrically simplified conditions, but fully adhering to its ideology.The simplified conditions are taken in a way that reduces the computation time. The most important assumption is a 2D geometry that immediately disables a quantitative comparison to experiment. Other simplifications are discussed below in greater detail. Keeping, however, the general methodology close to experimental principles we generate a large number of synthetic nonlinear images of an isolated crack immersed into a fragment of a solid plate. We analyze in detail influence of geometric and physical parameters of the system in the cases of one- and two-frequency excitations.Finally, we focus on the case close to real experimental conditions in terms of the sample geometry and boundary conditions selected. A preliminary theory and experiment comparison is presented.Generally, the results of this thesis could be of interest for researchers involved in nonlinear acoustic NDT experiments as well as for those who look for applications of modern semi-analytical contact models based on Cattaneo-Mindlin principles
APA, Harvard, Vancouver, ISO, and other styles
29

Boudhiba, Imen. "Model-Based Testing over IOSTS enriched with function calls." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC014.

Full text
Abstract:
Les systèmes réactifs sont modélisés avec différents types d'automates, tels que les systèmes de transitions symboliques à entrée sortie (IOSTS). L'exécution symbolique d'un IOSTS permet la génération de cas de test qui peuvent être exécutés sur une implantation concrète, afin de déterminer si elle est conforme à son modèle. Dans ce document, nous étendons les IOSTS avec des appels de fonctions utilisateur et analysons leur impact sur le système entier et viceversa. Cette thèse comble l'écart entre une approche basée sur le modèle où les fonctions utilisateur sont abstraites et une approche basée sur le code où les petits morceaux de code sont considérés séparément, indépendamment de la façon dont ils sont combinés. Selon le niveau de connaissance que nous avons sur ces fonctions, elles sont modélisées soit par une spécification complète, soit par une spécification partielle, soit juste comme des boîtes noires fournies sans aucune connaissance. Premièrement, lorsque les fonctions sont partiellement connues, nous utilisons des bouchons définis par des tables contenant des tuples représentatifs des données d'entrée/sortie. L'approche proposée emprunte au test "concolic", l'idée de mélanger l'exécution symbolique avec l'information obtenue à partir d'exécutions concrètes des fonctions (tables). Deuxièmement, si l'utilisateur est prêt à fournir d'autres spécifications, il serait intéressant d'utiliser des représentations plus complètes pour les fonctions. Par conséquent, nous proposons d'abstraire des comportements des fonctions par des contrats pré/post. Ensuite, nous étendons l'exécution symbolique en analysant les fonctions via leurs contrats. Enfin, lorsque les fonctions appelées sont complètement inconnues, nous présentons une approche pour extraire de nouveaux contrats pour eux en explorant les contraintes issues de l'exécution symbolique de l'IOSTS. De tels contrats reflètent les contraintes des fonctions qui rendent possible un certain comportement (exigence)<br>Reactive systems are modeled with various kinds of automata, such as Input Output Symbolic Transition Systems (IOSTS). Symbolic execution over an IOSTS allows test cases generation that can be executed on a concrete implementation, in order to determine whether it is conforming to its model. In this dissertation, we aim at extending the IOSTS framework with explicit user-defined function calls and analyze their impact on a whole system and vice-versa. The thesis bridges the gap between a model-based approach in which user-defined functions are abstracted away and a code-based approach in which small pieces of code are considered separately regardless of the way they are combined. According to the level of knowledge we have about these functions, they are modeled either by a complete specification, a partial specification, or even just as black-boxes provided without any knowledge. First, when functions are partially known, we use function stubs defined by tables containing representative input/output data tuples. The proposed approach borrows from concolic testing, the idea of mixing symbolic execution with information obtained from instrumented concrete executions (function tables). Second, if the user is willing to provide further specifications, it would be interesting to use more complete representations for called functions. Hence, we propose to abstract function behaviors by means of pre/post contracts. Then we extend symbolic execution by analyzing the functions through their contracts. Finally, when called functions are completely unknown, we present an approach to extract new contracts for them by exploring constraints coming from the IOSTS symbolic execution. Such contracts reflect constraints on the functions that make some behavior (requirement) feasible
APA, Harvard, Vancouver, ISO, and other styles
30

Fantoni, Patricia (Patricia Maria Angelica). "A Criterion Validity Study of the MMPI-2 and PAI Spanish Versions with DIS Diagnosis: Implications for Clinical Practice." Thesis, University of North Texas, 1995. https://digital.library.unt.edu/ark:/67531/metadc277682/.

Full text
Abstract:
New Spanish versions of the Minnesota Multiphasic Personality Inventory-2 (MMPI-2) and the Personality Assessment Inventory (PAI) were assessed with the Spanish translation of the Diagnostic Interview Schedule (DIS) as the gold standard. Findings from categorical and dimensional analyses suggest that, although the degree of diagnostic concordance of both measures with the DIS was found to be moderately high, the MMPI-2 clinical scales yielded greater specificity but lower sensitivity than the PAI scales on two of four diagnostic categories (i.e., Major Depression, and Schizophrenia). Both measures failed to correctly diagnose Anxiety Disorders, while the MMPI-2 also showed poor diagnostic accuracy with Alcohol Dependence.
APA, Harvard, Vancouver, ISO, and other styles
31

Buck, Fabiano. "Análise dos intervalos (R-R) entre monitor WCS Pulse e eletrocardiograma portátil porta PAK/90." Universidade Tecnológica Federal do Paraná, 2016. http://repositorio.utfpr.edu.br/jspui/handle/1/2009.

Full text
Abstract:
Intervalos dos batimentos (R-R) vêm sendo considerado pela literatura, como um dos mais promissores meios de análise do sistema autônomo. Porém, diversos monitores e seus métodos, necessitam de validação através da análise dos parâmetros de VFC. O objetivo deste estudo foi validar um instrumento portátil, específico para mensuração dos intervalos dos batimentos (R-R) da marca WCS Pulse. Para a proposta deste estudo, 30 indivíduos do sexo masculino praticantes de Jiu-Jitsu, foram monitorados através de ECG e monitor WCS Pulse. Os parâmetros de VFC: intervalos (R-R), LF, HF e LF/HF foram coletados em pré- exercício, 24 e 48 horas após exercício. Conforme os resultados observados, os instrumentos ECG e WCS Pulse apresentam forte correlação e forte coeficiente de correlação intra-Classe, nos parâmetros de VFC (LF, HF e LF/HF). Por outro lado, quanto aos valores de Student t aplicados nos intervalos (R-R), foi observado diferença significativa entre os instrumentos (p<0.05) em todos os momentos da pesquisa. Através deste estudo, pode-se considerar que o monitor dos intervalos dos batimentos (R-R) da marca WCS Pulse é uma ferramenta de biomarcador (não invasivo) eficaz. Nesta esteira, o equipamento de monitoração dos intervalos (R-R) WCS Pulse, demonstrou um grau de concordância para a utilização em centros de treinamentos esportivos e ciências da saúde; porém, os parâmetros de resolução de amostragem do instrumento WCS Pulse, deve ser mais bem observado quando for comparado com instrumentos existentes no mercado e ou eletrocardiogramas.<br>The RR interval has been considered in the literature, the most promising analysis autonomous system. However, several monitors and validation methods is necessary through of the HRV parameters analysis. The aim of this study was, validate portable specific instrument to measurement RR interval WCS Pulse. For the proposal of this study, 30 male practitioners of BJJ were monitored through ECG and monitor Pulse WCS in different ways. The parameters of HRV: RR interval, LF, HF and LF / HF were collected in pre-exercise, 24 and 48 hours after exercise. Results: ECG instruments and WCS Pulse demonstrated strong correlation (r), and strong values to coefficient of intra-class in HRV parameters (LF, HF and LF / HF). In the other hand, the Student t values applied on the RR interval, was observed significant difference between the instruments in all moments of the research (p <0.05). Through this study, we consider that monitor RR interval WCS Pulse is effective biomarker tool (noninvasive). Thus, the equipment monitoring of RR intervals WCS Pulse, showed highs degree of agreements for use in sports training centers and Health Sciences; However, the instrument sampling resolution parameters, WCS Pulse should be more observed when compared to existing instruments in the market and electrocardiogram.
APA, Harvard, Vancouver, ISO, and other styles
32

Poncelet, Sanchez Clément. "Model-based testing real-time and interactive music systems." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066548/document.

Full text
Abstract:
Est-il possible de tester automatiquement le comportement temporisé des systèmes interactifs temps réel ? Ces travaux proposent une solution en fournissant un ensemble d’outils de test basé sur modèles pour Systèmes Musicaux Interactifs (SMI). Les SMIs doivent calculer et réagir pendant une performance musicale et ainsi accompagner les musiciens. Certains de ces SMIs peuvent être basés sur partition et doivent, dans ce cas, suivre à tout prix les contraintes temporelles imposées par le document haut-niveau appelé partition. En somme, pendant une performance, le système doit réagir en temps réel aux signaux audio venant des musiciens en suivant cette partition. Ceci demande au système une forte fiabilité temporelle et une robustesse face aux erreurs pouvant arriver en entrée du système. Hors, la vérification formelle de propriétés, comme la fiabilité temporelle avant l’exécution du système lors d’une performance, est insuffisamment traitée par la communauté de l’informatique musicale. Nous présentons dans cette thèse, la réalisation d’un ensemble d’outils de test basé sur modèles appliqué à un SMI. Il est à noter que ces outils de test ont été définis formellement dans le but de tester plus généralement le comportement temporelle des systèmes interactifs temps réel prenant en compte des évènements discrets et des durées définissables sur des échelles multiples. Pour ce résumé nous présentons rapidement l’état de l’art de nos travaux avant d’introduire la définition de notre modèle créé pour spécifier les aspects évènementiel («event-triggerred») et temporel («timed-driven») des SMIs. Ce modèle a la particularité d’être automatiquement construit depuis les conditions temporelles définies dans un document haut-niveau et peut être traduit vers un réseau d’Automates Temporisés (TA). Dans le cadre de la performance musique mixte électronique/instrumentale nous avons introduit une notion de durée multi-temps gérée par notre modèle et une génération de trace d’entrée musicalement pertinente par notre ensemble d’outils de test. Pour tester un SMI selon les différentes attentes de l’utilisateur, notre ensemble d’outils a été implémenté avec plusieurs options possibles. Parmi ces options, la possibilité de tester automatiquement, selon une approche différée ou temps réel, la conformité temporelle du SMI est proposée. En effet, l’approche différée utilise des outils de la gamme du logiciel Uppaal [44] pour générer une suite de traces d’entrées exhaustive et garantir la conformité temporelle du système testé. Il est également possible de tester une trace d’entrée particulière ou une version altérée («fuzzed») de la trace idéale définie par la partition. L’approche temps réel interprète quand-à elle directement le modèle comme des instructions de byte-code grâce à une machine virtuelle. Finalement, des expériences ont été conduites via une étude de cas sur le suiveur de partition Antescofo. Ces expériences ont permis de tester ce système et d’évaluer notre ensemble d’outils et ses différentes options. Ce cas d’étude applique nos outils de test sur Antescofo avec succès et a permit d’identifier des bogues parfois non triviaux dans ce SMI<br>Can real-time interactive systems be automatically timed tested ? This work proposes an answer to this question by providing a formal model based testing framework for Interactive Music Systems (IMS). IMSs should musically perform computations during live performances, accompanying and acting like real musicians. They can be score-based, and in this case must follow at all cost the timed high-level requirement given beforehand, called score. During performance, the system must react in real-time to audio signals from musicians according to this score. Such goals imply strong needs of temporal reliability and robustness to unforeseen errors in input. Be able to formally check this robustness before execution is a problem insufficiently addressed by the computer music community. We present, in this document, the concrete application of a Model-Based Testing (MBT) framework to a state-of-the-art IMS. The framework was defined on purpose of testing real-time interactive systems in general. We formally define the model in which our method is based. This model is automatically constructed from the high-level requirements and can be translated into a network of time automata. The mixed music environment implies the management of a multi-timed context and the generation of musically relevant input data through the testing framework. Therefore, this framework is both time-based, permitting durations related to different time units, and event-driven, following the musician events given in input. In order to test the IMS against the user’s requirements, multiple options are provided by our framework. Among these options, two approaches, offline and online, are possible to assess the system timed conformance fully automatically, from the requirement to the verdict. The offline approach, using the model-checker Uppaal, can generate a covering input suite and guarantee the system time reliability, or only check its behavior for a specific or fuzzed input sequence. The online approach, directly interprets the model as byte-code instructions thanks to a virtual machine. Finally, we perform experiments on a real-case study: the score follower Antescofo. These experiments test the system with a benchmark of scores and a real mixed-score given as input requirements in our framework. The results permit to compare the different options and scenarios in order to evaluate the framework. The application of our fully automatic framework to real mixed scores used in concerts have permitted to identify bugs in the target IMS
APA, Harvard, Vancouver, ISO, and other styles
33

Poslusny, Matthew. "Analysis of PAH and PCB Emissions from the Combustion of dRDF and the Nondestructive Analysis of Stamp Adhesives." Thesis, University of North Texas, 1989. https://digital.library.unt.edu/ark:/67531/metadc331998/.

Full text
Abstract:
This work includes two unrelated areas of research. The first portion of this work involved combusting densified refuse derived fuel (dRDF) with coal and studying the effect that Ca(0H)2 binder had on reducing polycyclic aromatic hydrocarbon (PAH) and polychlorinated biphenyl (PCB) emissions. The second area of work was directed at developing nondestructive infrared techniques in order to aid in the analysis of postage stamp adhesives. With Americans generating 150-200 million tons a year of Municipal Solid Waste (MSW) and disposing of nearly ninety percent of it in landfills, it is easy to understand why American landfills are approaching capacity. One alternative to landfilling is to process the MSW into RDF. There are technical and environmental problems associated with RDF. This work provides some answers concerning the amount of PAH and PCB emissions generated via the combustion of RDF with coal. It was found that the Ca(OH)2 binder greatly reduced both the PAH and the PCB emissions. In fact, PAH emissions at the ten-percent level were reduced more by using the binder than by the pollution control equipment. If the Ca(0H)2 binder can reduce not only PAH and PCB emissions, but also other noxious emissions, such as acid gases or dioxin, RDF technology could soon be the answer to the current landfill problems. The second portion of this work focused on developing a method to analyze stamp adhesives nondestructively. Using this method, it was fairly easy to differentiate among the three different types of adhesives that have been used by the United States Postal Service: gum arabic, dextrin, and polyvinyl alcohol. Differences caused by changes in chemicals added to the adhesives were also detected. Also, forgeries were detected with as much success, if not more, than by conventional methods. This work also led to the construction of equipment that allows large samples to be analyzed by reflectance infrared methods.
APA, Harvard, Vancouver, ISO, and other styles
34

Bricas, Gaëtan. "Radiation reliability analysis of FPGA-based systems : testing methodologies and analytical approaches." Electronic Thesis or Diss., Université de Montpellier (2022-....), 2022. http://www.theses.fr/2022UMONS070.

Full text
Abstract:
Ce travail se focalise sur les méthodologies de test pour analyser la sensibilité aux radiations des systèmes basés sur FPGA. De par leur flexibilité, l'analyse de fiabilité sur ces composants est une tâche complexe, car leur sensibilité aux radiations est entièrement conditionnée par le système implémenté. En effet, leur sensibilité dépend à la fois de la sensibilité intrinsèque du composant (aux effets de doses et aux effets singuliers) et de la manière dont les perturbations induites peuvent impacter le fonctionnement du système. Les méthodologies actuelles ont montré certaines difficultés pour faire le lien entre la sensibilité intrinsèque du FPGA et celle du système implémenté. L'objectif de cette thèse est d'améliorer les méthodologies de test radiations pour surmonter ces limitations.Au niveau des effets de dose, une nouvelle méthodologie est proposée. Sa principale contribution est d'étendre l'évaluation des dégradations paramétriques à toutes les ressources logique et de routage du composant. Dans ce but, des structures spécifiques ont été développées pour mesurer la dégradation du temps de propagation de chaque type de ressource. Des tests aux rayons-X ont été réalisés sur trois familles de FPGA pour mettre en évidence les bénéfices de cette approche. Au niveau des effets singuliers, la méthodologie proposée se situe entre les deux approches traditionnelles pour les tests sous faisceau de particules (tests au niveau des primitives et test de l'application finale), en proposant une évaluation de la sensibilité à un niveau plus élevé de granularité. Le principe est d'utiliser un benchmark : un ensemble de structures, suffisamment simples pour fournir une bonne testabilité (faible taux de masquage d'erreur) et suffisamment complexes pour être représentatif des applications réelles. Ce benchmark s'articule autour des opérateurs arithmétiques. En utilisant différentes implémentations de la même fonction avec une forte diversité dans les paramètres des circuits et dans l'utilisation des ressources, les tests de radiations remplissent un objectif multiple. Premièrement, les résultats de tests fournissent des informations essentielles pour identifier et comprendre les différents mécanismes de défaillances et leur prédominance ; deuxièmement, cette méthodologie permet d'évaluer qualitativement l'impacte des différents types de ressources instanciées sur la sensibilité global du système et de comparer quantitativement la sensibilité entre différentes implémentations et avec différentes solutions de mitigation pour la même fonction logique. Enfin, elle fournit aux designers des recommandations pour améliorer la fiabilité de leurs systèmes basés sur FPGA. Des tests neutron et proton ont été réalisés pour démontrer les avantages apportés par cette approche.La principale limitation des tests radiation repose sur la difficulté à extrapoler les résultats de tests réalisés avec un circuit donné pour estimer la sensibilité de n'importe quel autre circuit. Pour aborder cette limitation, une nouvelle approche logicielle a été développée pour estimer la susceptibilité des circuits implémentés sur FPGA aux corruptions de la mémoire de configuration. Cette approche analytique se base sur la netlist physique du circuit. Le principe est d'explorer les différents nœuds du circuit et les différentes ressources logiques qui le composent pour extraire l'ensemble des bits de configuration qui sont critiques pour le fonctionnement du système. La principale contribution de cette approche est de prendre en compte la charge de travail du circuit pour analyser la propagation des erreurs et ainsi filtrer parmi l'ensemble des bits de configuration utilisé, ceux qui modifient réellement la réponse du système. L'efficacité de cette approche est évaluée par injection de fautes et par test protons<br>This work focuses on testing methodologies to analyze the radiation sensitivity of FPGA-based systems. Due to their flexibility, the reliability analysis on these components is a challenging task as the radiation sensitivity is entirely conditioned by the implemented system. Indeed, it depends on the one hand on the intrinsic sensitivity of the component (to both TID and SEEs) and, on the other hand, on the way the different induced perturbations can impact the operation of the implemented system. State-of-the-art methodologies have shown a number of limitations in bridging the intrinsic sensitivity of the FPGA and the one of the implemented systems. The objective of this thesis is to improve radiation testing methodologies to overcome these limitations.Concerning TID effects, a new testing methodology is proposed. Its main contribution is to extend the evaluation of parametric degradations to all logical and routing resources of the component. For this purpose, specific benchmarking structures have been developed to measure the propagation delay deviation of each type of logical and routing resource. A new technique to measure the propagation delay in real time and with limited external instrumentation is also proposed. X-ray radiation tests have been performed on three FPGA families to highlight the benefits of this methodology.As for SEE, the proposed testing methodology lies between the two traditional accelerated particle beam testing approaches (primitive level testing and final application testing) by proposing a sensitivity evaluation at a higher level of granularity. The basic idea is to instantiate a set of dedicated benchmarking structures, simple enough to provide a good testability (low error masking, traversable state spaces) while sufficiently complex to provide a good representativity of the circuits effectively implemented on FPGAs. The benchmarks selected in this study are based on arithmetic operations. By using different implementations of the same arithmetic functions with a large diversity in the circuit parameters, and in the use of resources, the radiation tests fulfill a multifaceted purpose. First, the test results provide extensive information to identify and understand the different failure mechanisms and their predominance; second, it allows to qualitatively evaluate the impact of different types of resources on the global system sensitivity and to quantitatively compare the sensitivity of different implementations of the same logic function and the effectiveness of mitigation solutions. Finally, it provides a set of guidelines for designers to improve the reliability of FPGA-based systems. Several neutron and proton beam tests have been performed to demonstrate the advantages of this approach.The main limitation of radiation testing lies with the difficulty to extrapolate the results of tests performed with a given implemented circuit to estimate the sensitivity of any other circuit. To address these limitations, a new software-based approach has been developed to estimate the susceptibility of circuits implemented on SRAM based FPGA to configuration memory corruptions. This analytical approach uses the physical netlist of the circuit and explores the different nodes and logical resources that compose it to extract all the configuration bits that are critical for the system operation. The main contribution of this approach is to take into account the workload of the circuit, extracted from logic simulation, to analyze the propagation of errors and thus filter among the set of potentially critical configuration bits, those that actually modify the output signals of the system. The efficiency of this approach is validated through fault injection and proton experiment
APA, Harvard, Vancouver, ISO, and other styles
35

Girardin, Bertrand. "Numerical modelling and small scale testing of fire performances for halogen-free cables." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10030/document.

Full text
Abstract:
L'objectif de ce travail de thèse est d’étudier le comportement au feu de câbles électriques par deux approches, la première consistant à développer des méthodes de caractérisation des propriétés des gaines externes de câbles afin d’en modéliser le comportement au feu. Parallèlement, une approche basée sur le développement d’un banc d'essai original à échelle réduite a été étudiée. La caractérisation des propriétés thermo-physique des matériaux a permis la prédiction de la température et de la perte de masse lors d'expériences thermogravimétriques, de gazéification et de combustion. Il a été montré que tester de mince spécimen de gaine de câbles dans une enceinte à échelle réduite permettait la prédiction des résultats de la norme EN 50399. Ce nouveau test de l'échelle du laboratoire a ensuite utilisé avec succès pour le développement de nouveaux câbles présentant des propriétés feu améliorées<br>The aim of this PhD work is to study the behavior of cables following two approaches: numerical modelling and small scale testing. First, methodologies to characterize the properties of the cables jacket materials were developed to further model their fire behavior. Concurrently, an approach was followed by developing a novel bench-scale fire test. Innovative methodologies using simultaneous thermal analyzer, Hot Disc apparatus were developed and so, the thermo-physical properties of the materials were characterized both as a function of temperature and of the decomposition state. Using these parameters as inputs data for a pyrolysis model, the temperature and mass loss rate were well predicted in case of thermo-gravimetric experiments, gasification and mass loss calorimeter. Moreover, it was shown that testing thin specimen of cables jacket materials in a reduced scaled enclosure of the EN 50399 test allowed the prediction of the results obtained on the large scale test carried out on whole cables. This new bench scale test was then successfully to develop new material that can be used as jacket for halogen-free electrical cable
APA, Harvard, Vancouver, ISO, and other styles
36

Abisset, Emmanuelle. "Un mésomodèle d’endommagement des composites stratifiés pour le virtual testing : identification et validation." Thesis, Cachan, Ecole normale supérieure, 2012. http://www.theses.fr/2012DENS0035/document.

Full text
Abstract:
Afin de fiabiliser la démarche de conception par simulation numérique des structures en composites stratifiés, l’industrie a besoin de modèles matériau dédiés pertinents et de code de calcul robustes. L’objectif de ce travail est de répondre à une partie de ces besoins : valider un mésomodèle d’endommagement des stratifiés, celui développé au LMT Cachan, pour le virtual testing. Une démarche de validation est proposée, basée sur le suivi de l’évolution des mécanismes de dégradation dans le matériau jusqu’à la rupture de l’éprouvette. Elle est ensuite appliquée au modèle sur des essais de tractions sur plaques trouées et d’indentation statique, avec études des effets d’échelle. Le premier cas test montre la capacité du modèle à reproduire le changement de mode de rupture, d’une rupture dominée par la rupture des fibres à celle dominée par le délaminage, mais souligne aussi une certaine faiblesse pour la représentation des zones d’endommagement localisées (splits). Une étude complémentaire, axée sur les mécanismes de fissuration transverse, de délaminage et de leur couplage, permet de corriger en partie le modèle et d’améliorer la compréhension du rôle de ces mécanismes dans la rupture des structures. Pour l’étude de l’indentation, une campagne expérimentale complète est construite et réalisée en collaboration avec le laboratoire ACCIS de Bristol. Elle met en évidence des évolutions de l’endommagement différentes selon l’épaisseur de la plaque, principalement en terme de délaminage. Les premières simulations réalisées montrent une capacité relative du modèle à reproduire l’apparition des dégradations mais aussi des limites numériques du code éléments finis utilisés<br>In order to provide reliable numerical simulations for the design of composite structures, both accurate, physically based material models and high performance numerical codes are necessary. The aim of this thesis is to validate one of these models: the LMT damage mesomodel for laminated composites. A new validation process, based on the evolution of the degradation mechanisms in the material up to failure, is defined. This approach is then applied on two chosen test cases: open-hole tensile tests and static indentation tests, focusing on the scaling effects. The first test case highlights the model capabilities to mirror the failure mode change with ply thickness: from a fiber breaking dominated failure to a delamination dominated one. Nevertheless, it also underlines one of the model weaknesses: the bad representation of localised damage such as splits. A study of the transverse cracking, the delamination and their interaction allow to improve the capabilities of the model and to understand in depth the role of these mechanisms in the structure failure. Concerning the static indentation, a complete experimental campaign was built and performed in collaboration with the ACCIS laboratory in Bristol. It brings out different damage evolution depending on plate thickness that can be used to validate the model. The first simulations performed show that the model does not manage to mirror all the experimental observations, and underline numerical limitations of the finite elements code used
APA, Harvard, Vancouver, ISO, and other styles
37

Guo, Jianglong. "Numerical and experimental study of electroadhesion to enable manufacturing automation." Thesis, Loughborough University, 2016. https://dspace.lboro.ac.uk/2134/21718.

Full text
Abstract:
Robotics and autonomous systems (RAS) have great potential to propel the world to future growth. Electroadhesion is a promising and potentially revolutionising material handling technology for manufacturing automation applications. There is, however, a lack of an in-depth understanding of this electrostatic adhesion phenomenon based on a confident electroadhesive pad design, manufacture, and testing platform and procedure. This Ph.D. research endeavours to obtain a more comprehensive understanding of electroadhesion based on an extensive literature review, theoretical modelling, electrostatic simulation, and experimental validation based on a repeatable pad design, manufacture, and testing platform and procedure.
APA, Harvard, Vancouver, ISO, and other styles
38

Salman, Youssef. "Testing a class of time-varying coefficients CHARN models with application to change-point study." Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0170.

Full text
Abstract:
Dans cette thèse, nous étudions un test du rapport de vraisemblance pour détecter les ruptures faibles dans la moyenne conditionnelle d'une classe de modèles CHARN à coefficients dépendants du temps. Nous établissons la structure de normalité asymptotique locale (LAN) de la famille de vraisemblances étudiées. Nous montrons l'optimalité asymptotique du test et donnons une expression explicite de sa puissance locale en fonction des potentiels points de rupture et des amplitudes des ruptures. Nous décrivons des stratégies de détection des ruptures et d'estimation de leurs localisations. Les estimateurs sont obtenus comme indices de temps rendant maximal un estimateur de la puissance locale. Les simulations numériques que nous faisons montrent de bonnes performances de notre méthode sur les exemples considérés<br>In this thesis, we study a likelihood ratio test for detecting multiple weak changes in the conditional mean of a class of time-dependent coefficients CHARN models.We establish the locally asymptotically normality (LAN) structure of the family of likelihoods under study. We prove that the test is asymptotically optimal, and we give an explicit form of its asymptotic local power as a function of candidates change locations and changes magnitudes. We describe some strategies for weak change-points detection and their location estimates. The estimates are obtained as the time indices maximizing an estimate of the local power. The simulation study we conduct shows the good performance of our methods on the examples considered
APA, Harvard, Vancouver, ISO, and other styles
39

Salihou, Adamou Ismaila. "Error exponent bounds and practical short-length coding schemes for Distributed Hypothesis Testing (DHT)." Electronic Thesis or Diss., Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2024. http://www.theses.fr/2024IMTA0446.

Full text
Abstract:
Dans les réseaux de communication distribués, les données sont collectées, compressées, et transmises depuis des nœuds distants vers un serveur central pour un traitement ultérieur. Cependant, l’objectif du serveur n’est pas toujours de reconstruire les données originales, mais plutôt de prendre des décisions à partir des données codées reçues. Dans ce contexte, le Test d’Hypothèses Distribué se concentre sur le cas particulier de deux sources et vise à effectuer une prise de décision directement à partir des données compressées, sans passer par une reconstruction préalable. Comme dans le test d’hypothèses classique, deux types d’erreurs sont pris en compte pour évaluer les performances : l’erreur de Type I (fausse alarme) et l’erreur de Type II (décision manquée). Le Test d’Hypothèses Distribué prend en compte une contrainte de débit sur le lien de communication, et l’objectif est de concevoir un schéma de codage afin de maximiser la décroissance exponentielle, appelée exposant d’erreur, de la probabilité d’erreur de Type II, tout en maintenant la probabilité d’erreur de Type I en dessous d’un seuil spécifié. Dans la littérature, ce cadre a principalement été étudié sous un angle théorique de l’information, et la plupart des travaux existants analysent les performances des schémas du Test d’Hypothèses Distribué en supposant des sources indépendantes et identiquement distribuées (i.i.d.).Dans la première partie de cette thèse, nous abordons un modèle plus réaliste et général de sources non-i.i.d. Ce modèle englobe des sources non stationnaires et non ergodiques, reflétant mieux les scénarios réels par rapport au cas i.i.d. Nous dérivons des bornes génériques sur l’exposant d’erreur pour le Test d’Hypothèses Distribué à l’aide d’outils du spectre de l’information pour ce modèle général de sources. Nous montrons la cohérence de ces bornes avec le cas i.i.d. et les caractérisons plus précisément pour deux modèles spécifiques de sources : les sources gaussiennes non-i.i.d., et les sources de type Gilbert-Elliot. De plus, l’étude du Test d’Hypothèses Distribué ne se limite pas à l’analyse des limites théoriques de l’information, mais inclut aussi le développement de schémas de codage pratiques pour ce cadre. Ainsi, dans la deuxième partie de cette thèse, nous développons et implémentons des schémas de codage pratiques de courte longueur, spécialement conçus pour le Test d’Hypothèses Distribué, qui n’avaient pas encore été étudiés dans la littérature. Ces schémas de codage sont basés sur des codes linéaires en blocs et visent des longueurs très courtes, appropriées pour le Test d’Hypothèses Distribué (moins de 100 bits). En outre, nous fournissons des expressions analytiques exactes pour les probabilités d’erreurs de Type I et Type II pour chaque schéma de codage proposé, offrant ainsi des outils utiles pour la conception optimale future de codes DHT. Le travail réalisé dans cette thèse pourrait servir de base à l’investigation théorique et pratique de schémas de codage dédiés à des tâches d’apprentissage plus complexes, telles que la classification<br>In distributed communication networks, data is gathered, compressed, and transmitted from remote nodes to a central server for further processing. However, often, the objective of the server is not to reconstruct the original data, but rather to make decisions based on the received coded data. In this context, Distributed Hypothesis Testing (DHT) focuses on the particular case of two sources and addresses decision-making directly from compressed data without prior reconstruction. As in conventional hypothesis testing, two types of errors are considered for performance evaluation: Type-I error (false alarm) and Type-II error (missed detection). DHT considers a rate-limited communication link, and the objective is to design a coding scheme so as to maximize the exponential decay, termed error exponent, of Type-II error probability, while keeping Type-I error probability below a specified threshold. In the literature, this setup was mostly investigated from an information-theoretic perspective, and most existing work analyze the performance of DHT schemes under the assumption of i.i.d. sources. In the first part of this PhD thesis, we address a more realistic and general model of non-i.i.d. sources. This model encompasses non-stationary and non-ergodic sources, and better reflects real-world scenarios compared to the i.i.d. case. We derive generic error exponent DHT bounds using information spectrum tools for the considered general source model. We show the consistency of these bounds with the i.i.d. case and further characterize these bounds for two specific source models: non-i.i.d. Gaussian sources, and Gilbert-Elliot sources. In addition, addressing DHT requires not only the investigation of information-theoretic limits, but also the development of practical coding schemes for this setup. Therefore, in the second part of this thesis, we develop and implement practical short-length coding schemes specifically for DHT, which had not yet been investigated in the literature. These coding schemes are based on linear block codes, and they target very short length which are appropriate for DHT (less than 100 bits). Additionally, we provide tights analytical expressions for the Type-I and Type-II error probabilities for each proposed coding scheme, which provides useful tools for further optimal DHT code designs. The work carried out in this PhD may serve as a basis for the theoretical and practical investigation of coding schemes dedicated to more complex learning tasks such as classification
APA, Harvard, Vancouver, ISO, and other styles
40

Cadette-Blasse, Antheia. "Testing equivalence classification : the acquisition of French L2 phones by St. Lucian Creole French and St. Lucian Creole English speakers." Master's thesis, Université Laval, 2006. http://hdl.handle.net/20.500.11794/18250.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Lei, Lei. "Cold food chain : infrared thermography applied to the evaluation of insulation anomalies in refrigerated vehicles for the transport of food & exploration of cold approach in infrared thermography for non-destructive testing." Doctoral thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/31430.

Full text
Abstract:
Le coût croissant de l’énergie a fait de l’économie d’énergie une nécessité vitale dans le monde actuel. Un des exemples consiste à “maintenir la chaîne du froid”, c’est-à-dire le transport correct des aliments périssables dans les véhicules réfrigérés, en particulier pour les produits laitiers, la viande et les aliments congelés. Tout en conservant une conservation appropriée des denrées alimentaires, l’ATP (Agreement on Transport of Perishable Foodstuffs) est l’un des accords concernant les essais d’isolation thermique qui déterminent l’adéquation du transport. Le test standard ATP est une procédure pour mesurer l’état isolant des équipements avec une approche globale. Néanmoins, certains défauts locaux dans la structure de l’équipement ne peuvent pas être visualisés dans cette procédure. Dans ce contexte, la technique de thermographie pourrait être particulièrement utile à ces problèmes. Deux exemples de cette application sont présentés dans cette thèse, l’un d’eux se concentre sur la cartographie du flux de chaleur sur la surface externe d’un rouleau-conteneur isolé par la technique de thermographie infrarouge. La seconde tente d’établir une vue panoramique du flux de chaleur sur la surface interne d’un véhicule isolé. Encouragé par les résultats favorables précédents, une exploration de l’approche à froid dans la thermographie infrarouge pour les Tests Non-Destructifs et l’Évaluation est introduite et réalisée dans ce qui suit. Une approche se concentre sur la détection des défauts isolés et des ponts thermiques dans les panneaux de caisses de camions isolés par chauffage à lampe et refroidissement par air, deux moyens d’excitation opposés. L’autre examine un refroidissement à l’azote liquide appliqué à un échantillon d’acier avec des trous à fond plat de différentes profondeurs et tailles. Différentes méthodes de traitement des données et de modélisation et de simulation sont effectuées dans des chapitres connexes.<br>The increasing cost of energy has made energy saving a vital necessity in the current world. One of the examples involves, “Maintaining the cold chain”, which is the correct transport of perishable foodstuffs in refrigerated vehicles, especially for dairy products, meat and frozen foods. In this respect a suitable thermal insulation implemented in refrigerated vehicles is essential for saving energy while maintaining an appropriate conservation of the foodstuffs. ATP (Agreement on Transport of Perishable Foodstuffs) is one of the agreements concerning thermal insulation tests ensuing the suitability of the transport. The ATP standard test is a procedure to measure the insulating status of equipment with a global approach. Nonetheless, some local defects in the structure of equipment cannot be visualized in this procedure. The thermography technique could be particularly helpful for these issues. Two examples of this application are presented in this thesis, one focuses on mapping the heat flux on the external surface of an insulated rollcontainer by infrared thermography technique. The second one attempts to establish a panoramic view of the heat flux on the internal surface of an insulated vehicle. Encouraged by previous favorable results, an exploration of the cold approach in infrared thermography for Non-Destructive Testing & Evaluation is introduced and performed herein. One approach focuses on the detection of insulated flaws and thermal bridges in insulated truck box panels by lamp heating and air cooling, two opposite means of excitation. The other approach investigates the application of liquid nitrogen cooling to a steel specimen with flat-bottom holes of different depths and sizes. Different data processing methods and modeling and simulation are also carried out.
APA, Harvard, Vancouver, ISO, and other styles
42

Ge, Yangyang. "Development of testing methods for characterization of delamination behavior under pure mode III and mixed modes in a laminated composite." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30130/document.

Full text
Abstract:
Le but de ce travail est la caractérisation du comportement au délaminage des composites stratifiés en mode mixte I+II+III, en se focalisant en particulier sur le verrou scientifique que représente le mode III pur. Cette thèse repose sur un travail à la fois expérimental et numérique, validant numériquement les tests existants et ceux développés. La mise en perspective des résultats obtenus a permis, d'un coté, de mieux appréhender l'importance de la distribution des taux de restitution d'énergie, GI, GII et GIII, le long du front de fissure sur le la détermination de la ténacité du composite et d'un autre coté, de proposer et d'améliorer les méthodes de caractérisation. Avant d'évoquer le délaminage en mode mixte, nos efforts se sont d'abord concentrés sur la caractérisation du délaminage en mode III pur. Deux essais de type " Edge Crack Torsion " (ECT) disponibles dans la littérature ont été réalisés. La distribution de GIII le long du front de fissure a été déterminée par la méthode des éléments finis (MEF) en utilisant la technique de fermeture virtuelle de fissure (VCCT). La capacité de ces tests est compromise par : 1. La participation du mode II non nul ; 2. La forte variation de GIII près des bords de l'éprouvette. Ces problèmes rendent la détermination de la ténacité en mode III pur, GIIIC, difficile et imprécise. Par la suite, un nouveau test a été proposé, nommé "Edge Ring Crack Torsion" test (ERCT ou ERT-III). Il s'appuie sur une éprouvette possédant une fissure de front circulaire, l'absence d'extrémités sur le front de fissure permet de supprimer les effets de bords. Après l'optimisation et la modification de la géométrie du dispositif dans le test ERCT original, GIII le long du front de fissure reste presque constant avec très peu de modes parasites. La formule proposée par Tada est appliquée pour déterminer GIIIC. Il est démontré qu'en général, si la variation de GIII est faible le long du front de fissure, la ténacité déterminée par une solution " closed-form " concorde bien avec celle obtenue numériquement. En fait, la répartition de GIII peut être influencée par divers facteurs, tels que la nature des stratifiés, la géométrie du dispositif expérimental et la géométrie des éprouvettes. L'interaction de ces facteurs a été aussi abordée dans cette étude. En outre, une étude numérique de sensibilité aux défauts a permis de vérifier la robustesse de l'essai proposé vis-à-vis de différents défauts qui sont inhérent à tout travail expérimental. Enfin, une géométrie d'éprouvette optimisée est donnée avec une méthodologie permettant de réduire les fluctuations de GIII. L'utilisation de l'éprouvette ERC a été généralisée à la caractérisation du délaminage pour deux autres modes purs : l'essai de traction permet de solliciter ERC en mode I pur et celui de flexion sollicite ERC en mode II pur, nommé ERCTE ou ERC-I et ERCF ou ERC-II, respectivement. Les avantages du test ERCT sont bien conservés. La réalisation des essais ERC-I, ERC-II et ERC-III permet de mesurer la ténacité de chacun des trois modes purs sur des éprouvettes ayant la même géométrie. Finalement, nous avons étudié numériquement la faisabilité de réaliser les essais de délaminage en mode mixte I + II, I + III et I + II + III sur les éprouvettes ERC. Il s'avère que le rapport modal en mode mixte peut être obtenu dans une large gamme en faisant varier la géométrie de l'éprouvette et en combinant les modes de chargement. Aucun mode indésirable n'est présent lors des essais en mode mixte I+II ou en mode mixte I+III. Cependant la distribution de GI, GII et GIII ne sont pas complètement uniforme, mais sa variation reste assez petite. En conclusion, les tests ERC proposés dans cette étude sont prometteurs pour la caractérisation du comportement au délaminage en mode mixte des composites. Il serait possible, dans un avenir proche, de proposer un critère de délaminage en mode mixte I+II+III basé sur une étude utilisant des essais sur éprouvettes ERC<br>The aim of this research work is to characterize the delamination behavior of laminate composite materials under the three pure modes and mixed modes, focusing especially on the complex issue of mode III. Both experimental and numerical works were performed, validating the existing and new testing methods. Correlation between the results obtained aims, on the one hand to better understand the distribution of strain energy release rates (GI, GII, GIII) along the crack front; on the other hand, to propose and improve testing methods, and to propose and validate simple approaches for determination of delamination toughness. Pure mode III testing methods are studied. Firstly, two kinds of Edge Crack Torsion tests were carried out, the distribution of GIII along the crack front were determined by finite element analysis (FEA) using virtual crack closure technique (VCCT). The performances of these tests are compromised by the drawbacks: (1) A participation of mode II component cannot be completely eliminated; (2) The distribution of GIII along the crack front is not uniform especially near the sides. After a study of existing tests, a novel mode III testing method was proposed, named Edge Ring Crack Torsion test (ERCT or ERC-III later). In the ERC specimen, the total absence of sides in the circular crack front leads to no edge effects. As a result, pure mode III delamination is achieved and the distribution of GIII along the crack front is quite uniform. In fact, the values of GIII along the crack front are nearly constant after optimizing and modifying the geometry of device in the original ERCT test. A closed-form solution proposed by Tada is applied to determine mode III delamination toughness. In ERCT test, the results calculated by Tada formula agree well with the ones calculated by VCCT when the distribution of GIII is relatively uniform. Actually, a numerical study shows that the distribution of GIII can be affected by different factors related to the nature of laminates tested, the geometry of test device and the geometry of the specimens. The interactive effect of above factors was also discussed in this study. In order to understand the influence of potential defaults on the performance of ERCT test, sensitivity study has been performed on the relative position of the crack front, the circularity of the crack front and the specimen shape. Optimum specimen's relative pre-crack geometry is given and a method for reducing the variation is provided. Then the application of ERC specimen was generalized to other pure delamination modes characterization. Pure mode I can be realized if ERC specimens are loaded in tension, named ERCTE or ERC-I, so can pure mode II if ERC specimens are loaded in flexion, named ERCF or ERC-II. The distribution of the strain energy release rates was also evaluated by FEA using VCCT. These tests keep most advantages of ERC-III test. Pure mode I and pure mode II delamination are achieved respectively and the distribution of GI or GII along the crack front is quite uniform. The realization of ERC-I, ERC-II and ERC-III allows to measure the toughness of each of three pure modes without any interference from geometry of specimens. Finally, we have studied numerically the feasibility to realize the delamination tests in mixed mode I+II, I+III and I+II+III by using ERC specimen. Firstly, the mixed mode ratio can be obtained in a large range by varying the geometry of the specimen and by combining loading modes. Secondly, no unwanted mode is presented for mixed mode I+II and mixed mode I+III; Thirdly, the distribution of strain energy release rates are not completely uniform but its variation is small enough to be accepted. In conclusion, ERC tests are promising testing methods for characterization of mixed mode delamination behavior. It will be possible to propose a mixed mode I+II+III delamination criterion based on the investigation by ERC tests in a close future
APA, Harvard, Vancouver, ISO, and other styles
43

Day, Jared Edwin. "Correlation Between the TCAP Test and ThinkLink Learnings Predictive Assessment Series Test in Reading Math and Science in a Tennessee School System." Digital Commons @ East Tennessee State University, 2011. https://dc.etsu.edu/etd/1369.

Full text
Abstract:
The purpose of the study was to determine if a correlation existed between the Predictive Assessment Series (PAS) Test, marketed by Discovery Education, and the Tennessee Comprehensive Assessment Program (TCAP) Achievement Test in reading, math, and science for grade 4, grade 6, and grade 8. The study included 4th-grade, 6th-grade, and 8th-grade students during the 2008-2009 school year who had taken the ThinkLink Predictive Assessment Series for reading, math, and science in February 2009 and had taken the TCAP reading, math, and science test in April 2009. The approach of the study was quantitative in nature. Data were collected from one school system in East Tennessee. The school system had 5 elementary schools and 1 middle school. Data collection tools used in the study included results from the TCAP test using the paper and pencil format and a computer test, the ThinkLink PAS. Student scaled scores were used for determining the degree of correlation between the TCAP and PAS tests. The data were analyzed using the Statistical Program for the Social Sciences. Based on the analysis and findings of this study, using the ThinkLink PAS test appears to have been successful in predicting how well students will perform on the state assessment. Overall, the correlations between the PAS and TCAP were consistent across grades, across gender within grade levels, and with Title I and Non-Title I students. The findings also show that it was possible to calculate a predicted TCAP score in reading, mathematics, and science. This was an important finding because the ability of the PAS assessment to predict TCAP scores could be another tool to provide educators the opportunity to target students who are potentially at risk of not meeting state benchmark proficiency levels. Based on the findings, there appears to be a strong relationship between the ThinkLink PAS benchmark assessment and the TCAP assessment in reading, math, and science for grade 4, grade 6, and grade 8. The relationships between PAS and TCAP tests in reading, math, and science were consistent across gender within grade levels. According to the results of the test of homogeneity of slopes, the relationships between PAS and TCAP tests in reading, math, and science were also consistent across Title I and Non-Title I schools. The test of homogeneity of slopes showed the slopes regression lines for the scores of Title I and Non-Title I students were the same (parallel) for grade 4, grade 6, and grade 8. Overall, the correlations between PAS and TCAP scores for Title I and Non-Title I students were moderately strong to very strong. The predictive validity of the PAS provides educators valuable time to reteach grade level skills to students who are at risk of scoring nonproficient on the TCAP.
APA, Harvard, Vancouver, ISO, and other styles
44

Craveur, Jean-Charles. "Système d'expertise de type virtual testing pour la modélisation numérique du contact d'un équipement de protection des voies respiratoires." Toulouse 3, 2007. http://thesesups.ups-tlse.fr/132/.

Full text
Abstract:
Le développement d'une méthodologie et des outils numériques associés a permis de mettre en place une procédure d'expertise des équipements de protection des voies respiratoires en termes d'étanchéité et de confort. En conséquence, l'évaluation par la simulation numérique des performances des nouveaux concepts proposés par l'industrie peut désormais limiter le nombre de prototypes et le nombre d'essais. Le travail réalisé comporte des aspects biomécaniques et expérimentaux, et des aspects numériques à la fois en termes de modélisation et de développement d'outils spécifiques. Trois difficultés principales ont été traitées. Les surfaces en contact sont souples, de géométries très complexes, toutes différentes (les visages), et soumises à de grands glissements relatifs. Les algorithmes de contact ont été considérablement améliorés, en particulier par le lissage de la surface de projection, la réactualisation des couples nœuds-faces lors du glissement, une stratégie de résolution par itérations découplées, et l'inversion du système matriciel par un sparse solver. L'analyse des différentes images (scanner CT et IRM), une procédure particulière d'essais et un recalage par éléments finis ont permis de déterminer les propriétés biomécaniques des tissus mous (épaisseurs, coefficients des lois de comportement décrivant le matériau " peau ") sur les têtes d'individus susceptibles de porter l'équipement de protection. Une méthode originale de maillage automatique 3D a été développée pour mailler les tissus mous d'un visage, à partir de l'acquisition de la surface externe de ce visage par un scanner DSP et des paramètres physiques associés au groupe morphologique de l'individu<br>The development of a methodology and of the associated numerical tools has led to an expert procedure for protective masks in terms of airtightness and comfort. Consequently, the evaluation of the new designs performances using numerical simulation can now help to reduce the number of prototypes and physical tests. The thesis deals with biomechanical and experimental aspects, numerical developments for modelling and specific tools. Three main points have been studied. The surfaces submitted to contact are flexible, their geometry is very complex, they are all different (human faces, and subjected to large relative glidings. The contact algorithms have been significantly improved, in particular by using the projection surface smoothing, the actualisation of the nodes-faces couples during the displacements, a strategy based on decoupled iterations, and the matrix system inversion using a sparse-solver. The analysis of pictures (CT scan and MRI), a specific testing procedure and updating using finite element simulation enabled to define the biomechanical properties of the soft tissues (thicknesses, coefficients of the laws describing the "skin" material) for the heads of the individual liable to wear this protective equipment. An original automatic 3D meshing technique has been developed in order to mesh a face soft tissue, from the DSP scan of this face external surface, and from physical parameters associated with the individual morphologic group
APA, Harvard, Vancouver, ISO, and other styles
45

Miorelli, Roberto. "Modélisation du contrôle par méthodes électromagnétiques de défauts réalistes de type fissuration." Thesis, Paris 11, 2012. http://www.theses.fr/2012PA112302.

Full text
Abstract:
Le contrôle non destructif (CND) par Courants de Foucault (CF) de défauts de fissuration est l’une des techniques les plus répandues dans de nombreux secteurs industriels. L’utilisation d’outils de modélisation adaptés permet d’améliorer les procédés de contrôle et la compréhension des données expérimentales observées. Ce travail de thèse, réalisé au CEA LIST et sous la direction de D. Lesselier (Laboratoire des Signaux et Systèmes), a pour objectif de proposer une approche de modélisation semi-analytique dédiée à la simulation du CND CF de défauts fins ou très fins dans une pièce plane conductrice composée de plusieurs couches. Il a fait l’objet d’une collaboration, dans le cadre du projet CIVAMONT, avec l’équipe Meander de l’University of Western Macedonia (Grèce), dirigée par le professeur T. Theodoulidis.Du point de vue de la simulation, la complexité du problème à traiter est liée aux particularités des défauts de fissuration : une ouverture très fine, un profil complexe et la possibilité d’avoir des ponts de conductivité entre les deux faces latérales du défaut. Ces caractéristiques expliquent la difficulté qu’ont les méthodes de simulation classiques, semi-analytiques ou purement numériques, à traiter efficacement ce type de configuration. Pour ces raisons, une approche dédiée aux défauts fins, fondée sur la méthode des éléments de frontière, a été développée. Elle présente l’avantage majeur de ne requérir qu’une discrétisation surfacique du défaut, en traitant analytiquement le calcul dans la direction de son ouverture. Après la résolution, avec la Méthode des Moments, de l’équation intégrale décrivant les interactions entre le champ d’excitation et le défaut, la réponse de la sonde est calculée en appliquant le théorème de réciprocité. Les développements théoriques réalisés dans cette thèse ont abouti à la mise en place d’une formulation générale permettant la prise en compte d’un nombre quelconque de défauts fins, d’orientations et des géométries différentes, pouvant être situés dans des couches différentes de la pièce. Par la suite, cette méthode innovante a été implémentée au sein de la plateforme de simulation CIVA, développée au CEA LIST, et a été validée expérimentalement à plusieurs reprises. Une extension de cette méthode a également permis la mise en place d’une approche la couplant à une modélisation volumique standard pour la simulation de configurations complexes comme le contrôle de fissures au voisinage d’un alésage. Ce travail, qui a fait l’objet d’une diffusion internationale affirmée, a permis de lever avec succès un certain nombre de difficultés théoriques et pratiques liées à la modélisation du CND CF de défauts fins<br>Non Destructive Testing (NDT) with Eddy Current (EC) techniques are is widely employed in several industrial sectors for cracks detection. Numerical simulation tools are largely used in order to design sensors, understand the signals collected during the measurements process and to provide a support in expertise. This work has been accomplished inside CEA LIST in collaboration with L2S-Supélec. It is also a part of the CIVAMONT 2012 project, with the active participation of MEANDER laboratory members from University of Western Macedonia (Greece) and Technological Educational Institute of Western Macedonia (Greece). The main goal of our work has consisted in to developing a semi-analytical modeling approach, devoted to Eddy Current Testing (ECT) of multiple narrow cracks in planar multilayered structures. From the numerical point of view, simulation of multiple narrow cracks problems is a difficult task for classical methods, like for example the Volume Integral Method (VIM) or the Finite Element Method (FEM). The main issues reside in geometrical characteristics of narrow crack themselves. Indeed, a narrow crack presents a small opening as well as complex profile and a complex shape, with possible electrical contacts inside it. All these features increase enormously, with classical methods, the difficulty to simulate in rapid and/or precise way problems involving narrow cracks. We have tackled the narrow crack issue by developing a Boundary Element Method (BEM) dedicated to ECT signal modeling, starting from an approach presented in literature. Then, we have extended its capability to more realistic and challenging cases, such as the ECT of multilayered structures affected by complex narrow cracks. The principle of this method is to introduce additional assumptions, leading to the description of the crack perturbation as the effect of a dipole distribution, oriented toward the crack opening. Numerically speaking, such a description makes it possible to largely reduce, compared to the VIM, the number of unknowns that one needs to properly solve the problem. A particular attention has been devoted to the analytical formulation, in order to achieve generality, accuracy and efficiency. A precise derivation of the spectral-domain Dyadic Green Function (DGF) associated to our problem has first been developed. In this work, analytical expressions of the spectral-domain DGF have been obtained via the Discrete Complex Image Method (DCIM). Then, an accurate approximation of the spectral-domain DGF has been achieved via the Generalized Pencil of Function (GPOF) method. Therefore, the closed-form of the spectral-domain DGF, expressed under the form of Sommerfeld Integrals (SIs), has been calculated analytically. Finally, the integral equation(s) associate to the electromagnetic problem is solved by applying the Method of Moments (MoM).Validations with respect to experiments and commercial simulation software have been performed to test the model. A large set of configurations have been chosen in order to address realistic configurations involving multiple narrow cracks embedded in different layers of a given multilayered structure. The model proposed has shown its promising performance in terms of computational time compared with the VIM and the FEM. Moreover, a very good agreement with respect to the experimental data has always been observed. In the last and very recent part of our work, a coupled approach between BEM and VIM has been studied and developed in order to address, in a efficient way, problems where narrow cracks appear in the vicinity of with volumetric flaws (for example the simulation of fastener sites inspections). Comparisons with experimental measures have shown that the coupled approach is capable to achieve, overall, better results than the VIM and saves a lot of computational time
APA, Harvard, Vancouver, ISO, and other styles
46

Gonzalez, Perez Carlos Alberto. "Pragmatic model verification." Thesis, Nantes, Ecole des Mines, 2014. http://www.theses.fr/2014EMNA0189/document.

Full text
Abstract:
L’Ingénierie Dirigée par les Modèles (IDM) est une approche populaire pour le développement logiciel qui favorise l’utilisation de modèles au sein des processus de développement. Dans un processus de développement logiciel base sur l’IDM, le logiciel est développé en créant des modèles qui sont transformés successivement en d’autres modèles et éventuellement en code source. Quand l’IDM est utilisée pour le développement de logiciels complexes, la complexité des modèles et des transformations de modèles augmente, risquant d’affecter la fiabilité du processus de développement logiciel ainsi que le logiciel en résultant.Traditionnellement, la fiabilité des logiciels est assurée au moyen d’approches pour la vérification de logiciels, basées sur l’utilisation de techniques pour l’analyse formelle de systèmes et d’approches pour le test de logiciels. Pour assurer la fiabilité du processus IDM de développement logiciel, ces techniques ont en quelque sorte été adaptées pour essayer de s’assurer la correction des modèles et des transformations de modèles associées. L’objectif de cette thèse est de fournir de nouveaux mécanismes améliorant les approches existantes pour la vérification de modèles statiques, et d’analyser comment ces approches peuvent s’avérer utiles lors du test des transformations de modèles<br>Model-Driven Engineering (MDE) is a popular approach to the development of software which promotes the use of models as first-Class citizens in the software development process. In a MDE-Based software development process, software is developed by creating models to be successively transformed into another models and eventually into the software source code. When MDE is applied to the development of complex software systems, the complexity of models and model transformations increase, thus risking both, the reliability of the software development process and the soundness of the resulting software. Traditionally, ensuring software correctness and absence of errors has been addressed by means of software verification approaches, based on the utilization of formal analysis techniques, and software testing approaches. In order to ensure the reliability of MDE-Based software development processes, these techniques have some how been adapted to try to ensure correctness of models and model transformations. The objective of this thesis is to provide new mechanisms to improve the landscape of approaches devoted to the verification of static models, and analyze how these static model verification approaches can be of assistance at the time of testing model transformations
APA, Harvard, Vancouver, ISO, and other styles
47

Benharrat, Nassim. "Model-Based Testing of Timed Distributed Systems : A Constraint-Based Approach for Solving the Oracle Problem." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC021/document.

Full text
Abstract:
Le test à base de modèles des systèmes réactifs est le processus de vérifier si un système sous test (SUT) est conforme à sa spécification. Il consiste à gérer à la fois la génération des données de test et le calcul de verdicts en utilisant des modèles. Nous spécifions le comportement des systèmes réactifs à l'aide des systèmes de transitions symboliques temporisées à entrée-sortie (TIOSTS). Quand les TIOSTSs sont utilisés pour tester des systèmes avec une interface centralisée, l'utilisateur peut ordonner complètement les événements (i.e., les entrées envoyées au système et les sorties produites). Les interactions entre le testeur et le SUT consistent en des séquences d'entrées et de sortie nommées traces, pouvant être séparées par des durées dans le cadre du test temporisé, pour former ce que l'on appelle des traces temporisées. Les systèmes distribués sont des collections de composants locaux communiquant entre eux et interagissant avec leur environnement via des interfaces physiquement distribuées. Différents événements survenant à ces différentes interfaces ne peuvent plus être ordonnés. Cette thèse concerne le test de conformité des systèmes distribués où un testeur est placé à chaque interface localisée et peut observer ce qui se passe à cette interface. Nous supposons qu'il n'y a pas d’horloge commune mais seulement des horloges locales pour chaque interface. La sémantique de tels systèmes est définie comme des tuples de traces temporisées. Nous considérons une approche du test dans le contexte de la relation de conformité distribuée dtioco. La conformité globale peut être testée dans une architecture de test en utilisant des testeurs locaux sans communication entre eux. Nous proposons un algorithme pour vérifier la communication pour un tuple de traces temporisées en formulant le problème de message-passing en un problème de satisfaction de contraintes (CSP). Nous avons mis en œuvre le calcul des verdicts de test en orchestrant à la fois les algorithmes du test centralisé off-line de chacun des composants et la vérification des communications par le biais d'un solveur de contraintes. Nous avons validé notre approche sur un cas étude de taille significative<br>Model-based testing of reactive systems is the process of checking if a System Under Test (SUT) conforms to its model. It consists of handling both test data generation and verdict computation by using models. We specify the behaviour of reactive systems using Timed Input Output Symbolic Transition Systems (TIOSTS) that are timed automata enriched with symbolic mechanisms to handle data. When TIOSTSs are used to test systems with a centralized interface, the user may completely order events occurring at this interface (i.e., inputs sent to the system and outputs produced from it). Interactions between the tester and the SUT are sequences of inputs and outputs named traces, separated by delays in the timed framework, to form so-called timed traces. Distributed systems are collections of communicating local components which interact with their environment at physically distributed interfaces. Interacting with such a distributed system requires exchanging values with it by means of several interfaces in the same testing process. Different events occurring at different interfaces cannot be ordered any more. This thesis focuses on conformance testing for distributed systems where a separate tester is placed at each localized interface and may only observe what happens at this interface. We assume that there is no global clock but only local clocks for each localized interface. The semantics of such systems can be seen as tuples of timed traces. We consider a framework for distributed testing from TIOSTS along with corresponding test hypotheses and a distributed conformance relation called dtioco. Global conformance can be tested in a distributed testing architecture using only local testers without any communication between them. We propose an algorithm to check communication policy for a tuple of timed traces by formulating the verification of message passing in terms of Constraint Satisfaction Problem (CSP). Hence, we were able to implement the computation of test verdicts by orchestrating both localised off-line testing algorithms and the verification of constraints defined by message passing that can be supported by a constraint solver. Lastly, we validated our approach on a real case study of a telecommunications distributed system
APA, Harvard, Vancouver, ISO, and other styles
48

Smime, Fatima-Zahra. "Modélisation bidimensionnelle de la propagation ultrasonore dans le contexte d'un contrôle non destructif ultrasonore sur tubes sans soudure." Thesis, Valenciennes, 2018. http://www.theses.fr/2018VALE0043.

Full text
Abstract:
Une des méthodes de contrôle non destructif ultrasonore (UT) déployées sur les bancs de contrôle automatiques en milieu industriel consiste à comparer l’amplitude de l’indication ultrasonore en acquisition par rapport à un seuil défini à l’aide d’un défaut de référence. Ceci repose sur une approche simpliste selon laquelle l’amplitude serait proportionnelle à la profondeur des défauts. Or, cette hypothèse est rarement vérifiée comme l’ont démontré des travaux précédemment menés au VRCF (Vallourec Research Center France). Ces derniers ont abouti à des coefficients de corrélation entre 0.2 et 0.7. En effet, la corrélation entre les amplitudes d'écho et la profondeur réelle des défauts n'est pas toujours garantie, en particulier pour les défauts inclinés (désorientés). De nos jours, la simulation est un moyen efficace d’évaluer les paramètres d’influence afin d’améliorer la sélectivité de l’inspection ultrasonore ainsi que d’éviter les sur-sensibilités source de faux rebuts. À cet égard, un simulateur bidimensionnel basé sur la théorie des rayons et une modélisation géométrique simple a été développé dans le cadre de ces travaux pour décrire les phénomènes de propagation ultrasonore dans le contexte d’un contrôle UT sur tube sans soudure en présence de défauts débouchants sur la surface interne suivant la configuration du contrôle des défauts dans le sens transversal du tube ( défauts circonférentiels où la géométrie du tube peut ; en première approximation; être réduite à une plaque). Les défauts peuvent être droits ou inclinés et à différentes profondeurs proches de la longueur d'onde de l’inspection UT (k*a ∈ [2,5], où k : le nombre d’onde de l’onde transversale et a : la dimension caractéristique du défaut étudié). Le simulateur fournit des images UT comparables à celles obtenues au moyen d'essais et comprend plusieurs approches pour décrire la diffraction sur la base d'approximations Hautes Fréquences (HF) et de considérations intégrales basées sur la Théorie Physique de la Diffraction (PTD). Les comparaisons entre les résultats simulés et expérimentaux montrent que les approximations HF présentent ; comme attendu; l’avantage de la rapidité des calculs, ce qui est très utile pour l’étude du problème inverse. Cependant, elles délivrent des prédictions moins fiables dues à leurs singularités ainsi qu’à leur domaine de validité (fréquence d’inspection et caractéristique dimensionnelle du défaut étudié). Les performances des prédictions HF s’améliorent à partir de k*a&gt;&gt;15. Les approches basées sur des considérations intégrales délivrent de meilleures prédictions au vue des faibles grandeurs k*a étudiées et permettent de palier les singularités des approches HF mais elles sont plus coûteuses en temps de calcul. Les développements réalisés pour le contrôle ultrasonore des défauts dans le sens transversal du tube ont été prolongés à la configuration dans le sens circonférentiel du tube plus complexe (contrôle des défauts à orientation longitudinale) afin de permettre une modélisation d’une inspection ultrasonore complète sur tube sans soudure. Enfin, une méthode d’estimation du tilt ainsi que de la profondeur des défauts détectés à l’aide des trajets ultrasonores a été développée<br>Résumé en anglais non disponible
APA, Harvard, Vancouver, ISO, and other styles
49

Derouiche, Ziane. "Caractérisation des milieux hétérogènes par traitement du signal ultrasonore haute fréquence rétrodiffusé." Valenciennes, 1994. https://ged.uphf.fr/nuxeo/site/esupversions/0953f68f-a6e3-4aeb-8bf3-8a70b23ca2d6.

Full text
Abstract:
Le développement du cnd s'est accéléré ces dernières années en raison de l'intérêt que portent les industriels à ces nouvelles méthodes de contrôle, pour des raisons techniques et économiques. L’arrivée de nouveaux matériaux de structure de plus en plus complexe et aux performances élevées par rapport aux matériaux classiques exige des contrôles de qualité très stricts durant le processus de fabrication et jusqu'au suivi en utilisation. Notre travail contribue à la caractérisation des matériaux hétérogènes par ultrasons, avec des applications sur des matériaux composites a matrices métallique et organique. Notre démarche consiste à combiner l'apport des ultrasons haute fréquence à celui du traitement du signal pour fournir des informations quantitatives sur des matériaux étudiés. L’utilisation d'ondes ultrasonores de fréquence élevée permet d'obtenir un meilleur pouvoir de résolution ainsi qu'une sensibilité plus importante des ondes aux microstructures. Nous présentons des méthodes de traitement du signal permettant d'extraire la signature des réflexions sur les hétérogénéités; et l'évaluation du paramètre d'espacement moyen entre diffuseurs de la structure hétérogène, à partir des informations contenues dans le signal rétrodiffusé
APA, Harvard, Vancouver, ISO, and other styles
50

Tka, Mouna. "Génération automatique de test pour les contrôleurs logiques programmables synchrones." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM020/document.

Full text
Abstract:
Ce travail de thèse, effectué dans la cadre du projet FUI Minalogic Bluesky, porte sur le test fonctionnel automatisé d'une classe particulière de contrôleurs logiques programmables (em4) produite par InnoVista Sensors. Ce sont des systèmes synchrones qui sont programmés au moyen d'un environnement de développement intégré (IDE). Les personnes qui utilisent et programment ces contrôleurs ne sont pas nécessairement des programmeurs experts. Le développement des applications logicielles doit être par conséquent simple et intuitif. Cela devrait également être le cas pour les tests. Même si les applications définies par ces utilisateurs ne sont pas nécessairement très critiques, il est important de les tester d'une manière adéquate et efficace. Un simulateur inclu dans l'IDE permet aux programmeurs de tester leurs programmes d'une façon qui reste à ce jour informelle et interactive en entrant manuellement des données de test. En se basant sur des recherches précédentes dans le domaine du test des programmes synchrones, nous proposons un nouveau langage de spécification de test, appelé SPTL (Synchronous Programs Testing Language) qui rend possible d'exprimer simplement des scénarios de test qui peuvent être exécutées à la volée pour générer automatiquement des séquences d'entrée de test. Il permet aussi de décrire l'environnement où évolue le système pour mettre des conditions sur les entrées afin d'arriver à des données de test réalistes et de limiter celles qui sont inutiles. SPTL facilite cette tâche de test en introduisant des notions comme les profils d'utilisation, les groupes et les catégories. Nous avons conçu et développé un prototype, nommé "Testium", qui traduit un programme SPTL en un ensemble de contraintes exploitées par un solveur Prolog qui choisit aléatoirement les entrées de test. La génération de données de test s'appuie ainsi sur des techniques de programmation logique par contraintes. Pour l'évaluer, nous avons expérimenté cette méthode sur des exemples d'applications EM4 typiques et réels. Bien que SPTL ait été évalué sur em4, son utilisation peut être envisagée pour la validation d'autres types de contrôleurs ou systèmes synchrones<br>This thesis work done in the context of the FUI project Minalogic Bluesky, concerns the automated functional testing of a particular class of programmable logic controllers (em4) produced by InnoVista Sensors. These are synchronous systems that are programmed by means of an integrated development environment (IDE). People who use and program these controllers are not necessarily expert programmers. The development of software applications should be as result simple and intuitive. This should also be the case for testing. Although applications defined by these users need not be very critical, it is important to test them adequately and effectively. A simulator included in the IDE allows programmers to test their programs in a way that remains informal and interactive by manually entering test data.Based on previous research in the area of synchronous test programs, we propose a new test specification language, called SPTL (Synchronous Testing Programs Language) which makes possible to simply express test scenarios that can be executed on the fly to automatically generate test input sequences. It also allows describing the environment in which the system evolves to put conditions on inputs to arrive to realistic test data and limit unnecessary ones. SPTL facilitates this testing task by introducing concepts such as user profiles, groups and categories. We have designed and developed a prototype named "Testium", which translates a SPTL program to a set of constraints used by a Prolog solver that randomly selects the test inputs. So, generating test data is based on constraint logic programming techniques.To assess this, we experimented this method on realistic and typical examples of em4 applications. Although SPTL was evaluated on EM4, its use can be envisaged for the validation of other types of synchronous controllers or systems
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography