To see the other types of publications on this topic, follow the link: Binary instrumentation.

Dissertations / Theses on the topic 'Binary instrumentation'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 28 dissertations / theses for your research on the topic 'Binary instrumentation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Kleckner, Reid (Reid N. ). "Optimization of naïve dynamic binary instrumentation Tools/." Thesis, Massachusetts Institute of Technology, 2011. http://hdl.handle.net/1721.1/76984.

Full text
Abstract:
Thesis (M. Eng.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 2011.<br>Cataloged from PDF version of thesis.<br>Includes bibliographical references (p. 59-60).<br>The proliferation of dynamic program analysis tools has done much to ease the burden of developing complex software. However, creating such tools remains a challenge. Dynamic binary instrumentation frameworks such as DyanamoRIO and Pin provide support for such tools by taking responsibility for application transparency and machine code manipulation. However, tool writers must still make a tough choice when writing instrumentation: should they inject custom inline assembly into the application code, or should they use the framework facilities for inserting callbacks into regular C code? Custom assembly can be more performant and more flexible, but it forces the tool to take some responsibility for maintaining application transparency. Callbacks into C, or "clean calls," allow the tool writer to ignore the details of maintaining transparency. Generally speaking, a clean call entails switching to a safe stack, saving all registers, materializing the arguments, and jumping to the callback. This thesis presents a suite of optimizations for DynamoRIO that improves the performance of "naive tools," or tools which rely primarily on clean calls for instrumentation. Most importantly, we present a novel partial inlining optimization for instrumentation routines with conditional analysis. For simpler instrumentation routines, we present a novel call coalescing optimization that batches calls into fewer context switches. In addition to these two novel techniques, we provide a suite of machine code optimizations designed to leverage the opportunities created by the aforementioned techniques. With this additional functionality built on DynamoRIO, we have shown improvements of up to 54.8x for a naive instruction counting tool as well as a 3.7x performance improvement for a memory alignment checking tool on average for many of the benchmarks from the SPEC 2006 CPU benchmark suite.<br>by Reid Kleckner.<br>M.Eng.
APA, Harvard, Vancouver, ISO, and other styles
2

Nethercote, Nicholas James. "Dynamic binary analysis and instrumentation : or building tools is easy." Thesis, University of Cambridge, 2004. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.616254.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Gorgovan, Cosmin. "Optimising Dynamic Binary Modification across ARM microarchitectures." Thesis, University of Manchester, 2017. https://www.research.manchester.ac.uk/portal/en/theses/optimising-dynamic-binary-modification-across-arm-microarchitectures(baa23b94-348f-47db-9a7b-a0b5df0c2626).html.

Full text
Abstract:
Dynamic Binary Modification (DBM) is a technique for modifying applications at runtime, working at the level of native code. It has numerous applications, including instrumentation, translation and optimisation. However, DBM introduces a performance overhead, which in some cases can dominate execution time, making many uses impractical. While avenues for reducing this overhead have been widely explored on x86, ARM, an architecture gaining widespread adoption, has received little attention. Consequently, the overhead of DBM on ARM, as reported in the literature and measured using the available DBM systems, has fallen behind the state-of-the-art by one or two orders of magnitude. The research questions addressed in this thesis are: 1) how to develop low overhead DBM systems for the ARM architecture, and 2) whether new optimisations are plausible and needed. Towards that end, a number of novel optimisations were developed and evaluated specifically to address the sources of overhead for DBM on various ARM microarchitectures. Furthermore, many of the optimisations in the literature were ported to ARM and evaluated. This work was enabled by a new DBM system, named MAMBO, created specifically for this purpose. MAMBO, using the optimisations presented in this thesis, is able to achieve an overhead an order of magnitude smaller than that of the most efficient DBM system for ARM available at the start of this PhD.
APA, Harvard, Vancouver, ISO, and other styles
4

Naciri, William Malik. "Bug Finding Methods for Multithreaded Student Programming Projects." Thesis, Virginia Tech, 2017. http://hdl.handle.net/10919/78675.

Full text
Abstract:
The fork-join framework project is one of the more challenging programming assignments in the computer science curriculum at Virginia Tech. Students in Computer Systems must manage a pool of threads to facilitate the shared execution of dynamically created tasks. This project is difficult because students must overcome the challenges of concurrent programming and conform to the project's specific semantic requirements. When working on the project, many students received inconsistent test results and were left confused when debugging. The suggested debugging tool, Helgrind, is a general-purpose thread error detector. It is limited in its ability to help fix bugs because it lacks knowledge of the specific semantic requirements of the fork-join framework. Thus, there is a need for a special-purpose tool tailored for this project. We implemented Willgrind, a debugging tool that checks the behavior of fork-join frameworks implemented by students through dynamic program analysis. Using the Valgrind framework for instrumentation, checking statements are inserted into the code to detect deadlock, ordering violations, and semantic violations at run-time. Additionally, we extended Willgrind with happens-before based checking in WillgrindPlus. This tool checks for ordering violations that do not manifest themselves in a given execution but could in others. In a user study, we provided the tools to 85 students in the Spring 2017 semester and collected over 2,000 submissions. The results indicate that the tools are effective at identifying bugs and useful for fixing bugs. This research makes multithreaded programming easier for students and demonstrates that special-purpose debugging tools can be beneficial in computer science education.<br>Master of Science
APA, Harvard, Vancouver, ISO, and other styles
5

Gopal, Prasad. "Top: An Infrastructure for detecting Application-Specific Program Errors by Binary Runtime Instrumentation." Thesis, Virginia Tech, 2006. http://hdl.handle.net/10919/36014.

Full text
Abstract:
Finding errors in applications has been achieved using a wide variety of techniques. Some tools instrument the application to check for program properties dynamically whereas others analyze the program statically. We use a technique that analyzes a program's execution by binary runtime instrumentation. Unlike tools that work on a particular language or an intermediate representation of a language, our approach works directly on binaries and hence it is not bound to any language. In order to instrument binaries, we use a binary instrumentation system called Pin, which provides APIs to instrument the application at runtime. We have built an infrastructure using Pin called Top that allows program entities like variables and events to be traced. Using finite automata we can check if certain events take place during the execution of the program. Top consists of a Tracing System that can trace movement of pointers to memory locations or 32-bit data values and keeps track of all their copies. It also provides an Event Framework that reports the occurrence of events such as function calls or returns. Top provides a programming interface which allows querying for particular events. The query is compiled with Top to produce a customized analysis tool, also called client. Running the analysis tool with the application, under Pin, results in events of interest being detected and reported. Using Top, we built a Memory Checker that checks for incorrect usage of dynamic memory allocation APIs and semantically incorrect accesses to dynamically allocated memory. Since we perform fine-grained checking by tracing references, our memory checker found some errors that a popular memory checker called valgrind did not. We have also built an MPI Checker which is used to check if programs use MPI's asynchronous communication primitives properly. This checker can detect errors related to illegal data buffer accesses and errors where the programmer inadvertently overwrote a handle needed to finish the processing of a request.<br>Master of Science
APA, Harvard, Vancouver, ISO, and other styles
6

Janjusic, Tomislav. "Framework for Evaluating Dynamic Memory Allocators Including a New Equivalence Class Based Cache-conscious Allocator." Thesis, University of North Texas, 2013. https://digital.library.unt.edu/ark:/67531/metadc500151/.

Full text
Abstract:
Software applications’ performance is hindered by a variety of factors, but most notably by the well-known CPU-memory speed gap (often known as the memory wall). This results in the CPU sitting idle waiting for data to be brought from memory to processor caches. The addressing used by caches cause non-uniform accesses to various cache sets. The non-uniformity is due to several reasons, including how different objects are accessed by the code and how the data objects are located in memory. Memory allocators determine where dynamically created objects are placed, thus defining addresses and their mapping to cache locations. It is important to evaluate how different allocators behave with respect to the localities of the created objects. Most allocators use a single attribute, the size, of an object in making allocation decisions. Additional attributes such as the placement with respect to other objects, or specific cache area may lead to better use of cache memories. In this dissertation, we proposed and implemented a framework that allows for the development and evaluation of new memory allocation techniques. At the root of the framework is a memory tracing tool called Gleipnir, which provides very detailed information about every memory access, and relates it back to source level objects. Using the traces from Gleipnir, we extended a commonly used cache simulator for generating detailed cache statistics: per function, per data object, per cache line, and identify specific data objects that are conflicting with each other. The utility of the framework is demonstrated with a new memory allocator known as equivalence class allocator. The new allocator allows users to specify cache sets, in addition to object size, where the objects should be placed. We compare this new allocator with two well-known allocators, viz., Doug Lea and Pool allocators.
APA, Harvard, Vancouver, ISO, and other styles
7

Coker, Carl. "The Frequency of Binary Companions Around KELT Planet Host Stars." The Ohio State University, 2017. http://rave.ohiolink.edu/etdc/view?acc_num=osu149978799487883.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Piano, Matteo. "Multi-Architecture Binary Rewriter to Prevent ROP Arbitrary Code Execution." Thesis, KTH, Skolan för datavetenskap och kommunikation (CSC), 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-220524.

Full text
Abstract:
Despite the increasing attention to the topic of computer security, the amount of vulnerable software services is still high. The exploitation of a common vulnerability like memory management bugs brought to the development of an attack known as Return Oriented Programming (ROP). Such technique employs malicious memory injections to hijack the control flow of the targeted application and execute an arbitrary series of instructions. This thesis explores the design and implementation of a static binary rewriting tool able to instrument applications compiled for the Linux operating system in order to offer protection against ROP exploitation on x86 and ARM platforms. The instrumentation is achieved by extracting re-compilable assembler code from executable binary files which is then processed and modified. The effectiveness of such solution is tested with a selection of benchmarking utilities in order to evaluate the cost in terms of performance caused by its employment. The results obtained from these experiments show that on average the added overheads are acceptably low and, consequently, the proposed tool is a valid solution to improve the security of vulnerable applications when the original source code is not available.<br>Trots den ökande uppmärksamheten på ämnet datasäkerhet är mängden sårbara mjukvarutjänster fortfarande stor. Utnyttjandet av en vanlig sårbarhet som minneshanteringsfel har lett till utvecklingen av en attack som kallas Return Oriented Programming (ROP). Denna teknik utnyttjar skadliga minnesinjektioner för att ändra kontrollflödet för den riktade applikationen och utföra en godtycklig serie instruktioner. Detta exjobb undersöker utformningen och genomförandet av ett verktyg för statisk binär omskrivning som kan användas för att instrumentera applikationer för Linux-operativsystemet för att erbjuda skydd mot ROP-exploatering på x86- och ARM-plattformar. Instrumentering uppnås genom att extrahera återkompilerbar assemblerkod från exekverbara binära filer som sedan behandlas och modifieras. Effektiviteten av sådan lösning testas med ett urval av benchmarkingverktyg för att utvärdera kostnaden när det gäller prestanda som orsakas av dess användning. Resultaten från dessa experiment visar att de extra kostnaderna i genomsnitt är acceptabelt låga och, följaktligen, är det föreslagna verktyget en giltig lösning för att förbättra säkerheten för sårbara applikationer när den ursprungliga källkoden inte är tillgänglig.
APA, Harvard, Vancouver, ISO, and other styles
9

Schlenker, Stefan. "Very high energy gamma rays from the binary pulsar PSR B1259-63." Doctoral thesis, [S.l. : s.n.], 2005. http://deposit.ddb.de/cgi-bin/dokserv?idn=976502267.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Kargén, Ulf. "Development of a prototype taint tracing tool for security and other purposes." Thesis, Linköpings universitet, Institutionen för datavetenskap, 2012. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-75363.

Full text
Abstract:
In recent years there has been an increasing interest in dynamic taint tracing of compiled software as a powerful analysis method for security and other purposes. Most existing approaches are highly application specific and tends to sacrifice precision in favor of performance. In this thesis project a generic taint tracing tool has been developed that can deliver high precision taint information. By allowing an arbitrary number of taint labels to be stored for every tainted byte, accurate taint propagation can be achieved for values that are derived from multiple input bytes. The tool has been developed for x86 Linux systems using the dynamic binary instrumentation framework Valgrind. The basic theory of taint tracing and multi-label taint propagation is discussed, as well as the main concepts of implementing a taint tracing tool using dynamic binary instrumentation. The impact of multi-label taint propagation on performance and precision is evaluated. While multi-label taint propagation has a considerable impact on performance, experiments carried out using the tool show that large amounts of taint information is lost with approximate methods using only one label per tainted byte.
APA, Harvard, Vancouver, ISO, and other styles
11

Pogulis, Jakob. "Generation of dynamic control-dependence graphs for binary programs." Thesis, Linköpings universitet, Databas och informationsteknik, 2014. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-110247.

Full text
Abstract:
Dynamic analysis of binary files is an area of computer science that has many purposes. It is useful when it comes to debugging software in a development environment and the developer needs to know which statements affected the value of a specific variable. But it is also useful when analyzing a software for potential vulnerabilities, where data controlled by a malicious user could potentially result in the software executing adverse commands or executing malicious code. In this thesis a tool has been developed to perform dynamic analysis of x86 binaries in order to generate dynamic control-dependence graphs over the execution. These graphs can be used to determine which conditional statements that resulted in a certain outcome. The tool has been developed for x86 Linux systems using the dynamic binary instrumentation framework PIN, developed and maintained by Intel. Techniques for utilizing the additional information about the control flow for a program available during the dynamic analysis in order to improve the control flow information have been implemented and tested. The basic theory of dynamic analysis as well as dynamic slicing is discussed, and a basic overview of the implementation of a dynamic analysis tool is presented. The impact on the performance of the dynamic analysis tool for the techniques used to improve the control flow graph is significant, but approaches to improving the performance are discussed.
APA, Harvard, Vancouver, ISO, and other styles
12

Gruber, Fabian. "Débogage de performance pour code binaire : Analyse de sensitivité et profilage de dépendances." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM071.

Full text
Abstract:
Le débogage, tel qu'il est généralement défini, consiste à trouver et à supprimer les problèmes empêchant un logiciel de fonctionner correctement.Quand on parle de bogues et de débogage, on fait donc habituellement référence à des bogues fonctionnels et au débogage fonctionnel.Dans le contexte de cette thèse, cependant, nous parlerons des bogues de performance et de débogage de performance.Nous ne cherchons donc pas les problèmes engendrant de mauvais comportements du programme, mais les problèmes qui le rendent inefficace, trop lent, ou qui induisent une trop grande utilisation de ressources.À cette fin, nous avons développé des outils qui analysent et modélisent la performance pour aider les programmeurs à améliorer leur code de ce point de vue là.Nous proposons les deux techniques de débogage de performance suivantes: analyse des goulets d'étranglement basée sur la sensibilité et Suggestions d'optimisation polyédrique basées sur les dépendances de données.Analyse des goulets d'étranglement basée sur la sensibilité:Il peut être étonnamment difficile de répondre à une question apparemment anodine sur la performance d'un programme, comme par exemple celle de savoir s'il est limité par la mémoire ou par le CPU.En effet, le CPU et la mémoire ne sont pas deux ressources complètement indépendantes, mais sont composés de multiples sous-systèmes complexes et interdépendants.Ici, un blocage d'une ressource peut à la fois masquer ou aggraver des problèmes avec une autre ressource.Nous présentons une analyse des goulets d'étranglement basée sur la sensibilité qui utilise un modèle de performance de haut niveau implémenté dans GUS, un simulateur CPU rapide pour identifier les goulets d'étranglement de performance.Notre modèle de performance a besoin d'une base de référence pour la performance attendue des différentes opérations sur un CPU, comme le pic IPC et comment différentes instructions se partagent les ressources du processeur.Malheureusement, cette information est rarement publiée par les fournisseurs de matériel, comme Intel ou AMD.Pour construire notre modèle de processeur, nous avons développé un système permettant de récupérer les informations requises en utilisant des micro-benchmarks générés automatiquement.Suggestions d'optimisation polyédrique basées sur les dépendances de données:Nous avons développé MICKEY, un profileur dynamique de dépendances de données qui fournit un retour d'optimisation de haut niveau sur l'applicabilité et la rentabilité des optimisations manquées par le compilateur.MICKEY exploite le modèle polyédrique, un puissant cadre d'optimisation pour trouver des séquences de transformations de boucle afin d'exposer la localité des données et d'implémenter à la fois le parallélisme gros-grain, c'est-à-dire au niveau thread, et grain-fin, c'est-à-dire au niveau vectoriel.Notre outil utilise une instrumentation binaire dynamique pour analyser des programmes écrits dans différents langages de programmation ou utilisant des bibliothèques tierces pour lesquelles aucun code source n'est disponible.En interne MICKEY utilise une représentation intermédiaire (RI) polyédrique qui code à la fois l'exécution dynamique des instructions d'un programme ainsi que ses dépendances de données.La RI ne capture pas seulement les dépendances de données à travers plusieurs boucles mais aussi à travers des appels de procédure, éventuellement récursifs.Nous avons développé l'algorithme de folding, un algorithme efficace de compression de traces qui construit cette RI polyédrique à partir de l'exécution d'un programme.L'algorithme de folding trouve aussi des accès réguliers dans les accès mémoire pour prédire la possibilité et la rentabilité de la vectorisation.Il passe à l'échelle sur de gros programmes grâce à un mécanisme de sur-approximation sûr et sélectif pour les applications partiellement irrégulières<br>Debugging, as usually understood, revolves around finding and removing defects in software that prevent it from functioning correctly.That is, when one talks about bugs and debugging one usually means functional bugs and functional debugging.In the context of this thesis, however, we will talk about performance bugs and performance debugging.Meaning we want to find defects that do not cause a program to crash or behave wrongly, but that make it run inefficiently, too slow, or use too many resources.To that end, we have developed tools that analyse and model the performance to help programmers improve their code to get better performance.We propose the following two performance debugging techniques: sensitivity based performance bottleneck analysis and data-dependence profiling driven optimization feedback.Sensitivity Based Performance Bottleneck Analysis:Answering a seemingly trivial question about a program's performance, such as whether it is memory-bound or CPU-bound, can be surprisingly difficult.This is because the CPU and memory are not merely two completely independent resources, but are composed of multiple complex interdependent subsystems.Here a stall of one resource can both mask or aggravate problems with another resource.We present a sensitivity based performance bottleneck analysis that uses high-level performance model implemented in GUS, a fast CPU simulator to pinpoint performance bottlenecks.Our performance model needs a baseline for the expected performance of different operations on a CPU, like the peak IPC and how different instructions compete for processor resources.Unfortunately, this information is seldom published by hardware vendors, such as Intel or AMD.To build our processor model, we have developed a system to reverse-engineer the required information using automatically generated micro-benchmarks.Data-Dependence Driven Polyhedral Optimization Feedback:We have developed MICKEY, a dynamic data-dependence profiler that provides high-level optimization feedback on the applicability and profitability of optimizations missed by the compiler.MICKEY leverages the polyhedral model, a powerful optimization framework for finding sequences of loop transformations to expose data locality and implement both coarse, i.e. thread, and fine-grain, i.e. vector-level, parallelism.Our tool uses dynamic binary instrumentation allowing it to analyze program written in different programming languages or using third-party libraries for which no source code is available.Internally MICKEY uses a polyhedral intermediate representation IR that encodes both the dynamic execution of a program's instructions as well as its data dependencies.The IR not only captures data dependencies across multiple loops but also across, possibly recursive, procedure calls.We have developed an efficient trace compression algorithm, called the folding algorithm, that constructs this polyhedral IR from a program's execution.The folding algorithm also finds strides in memory accesses to predict the possibility and profitability of vectorization.It can scale to real-life applications thanks to a safe, selective over-approximation mechanism for partially irregular data dependencies and iteration spaces
APA, Harvard, Vancouver, ISO, and other styles
13

Foley, Edward L. "A Rotating Aperture Mask for Small Telescopes." DigitalCommons@CalPoly, 2019. https://digitalcommons.calpoly.edu/theses/2105.

Full text
Abstract:
Observing the dynamic interaction between stars and their close stellar neighbors is key to establishing the stars’ orbits, masses, and other properties. Our ability to visually discriminate nearby stars is limited by the power of our telescopes, posing a challenge to astronomers at small observatories that contribute to binary star surveys. Masks placed at the telescope aperture promise to augment the resolving power of telescopes of all sizes, but many of these masks must be manually and repetitively reoriented about the optical axis to achieve their full benefits. This paper introduces a design concept for a mask rotation mechanism that can be adapted to telescopes of different types and proportions, focusing on an implementation for a Celestron C11 Schmidt–Cassegrain optical tube assembly. Mask concepts were first evaluated using diffraction simulation programs, later manufactured, and finally tested on close double stars using a C11. An electronic rotation mechanism was designed, produced, and evaluated. Results show that applying a properly shaped and oriented mask to a C11 enhances contrast in images of double star systems relative to images captured with the unmasked telescope, and they show that the rotation mechanism accurately and repeatably places masks at target orientations with minimal manual effort. Detail drawings of the mask rotation mechanism and code for the software interface are included.
APA, Harvard, Vancouver, ISO, and other styles
14

Cernicchiaro, Geraldo Roberto Carvalho. "Développement d'un système de mesure d'interférences mésoscopiques : application à l'étude de courants permanents, quantification de conductance et interférences entre canaux dans un anneau 2DEG." Université Joseph Fourier (Grenoble), 1997. http://www.theses.fr/1997GRE10101.

Full text
Abstract:
Cette etude s'interesse au developpement de l'instrumentation et a son application pour la comprehension de certains phenomenes d'interference electronique dans des systemes a l'echelle mesoscopique. Nous montrons de nouvelles mesures de transport quantique et d'aimantation (courants permanents) realisees sur un anneau resistif, lithographie dans un systeme bidimensionnel d'electrons (2deg) a l'interface d'une heterojonction de gaas-gaalas. Nous avons developpe un systeme de detection electronique qui permet l'utilisation de microsquids a micropont hysteretiques comme detecteurs de variation de flux magnetique pour la mesure des courants permanents. Ce systeme permet la mesure de tres petits objets (<100 nm). Il est utilise actuellement dans l'etude de plusiers domaines du micromagnetisme. Nous etudions la dependance de la magnetoconductance d'un anneau 2deg, en fonction d'un champ electrique applique a une grille metallique deposee sur une branche de l'anneau. La figure d'interference resultante presente une serie de changements : alternance de phase, doublement de frequence, variation d'amplitude. Ces mesures suggerent la superposition des effets d'interferences entre les modes propres de propagation (canaux de conduction) et la quantification de la conductance dans une experience de aharonov-bohm, dans le regime quasi balistique. Des simulations numeriques sont en bon accord qualitativement avec les resultats experimentaux.
APA, Harvard, Vancouver, ISO, and other styles
15

Milita, Silvia. "Études par imagerie au rayonnement synchrotron de matériaux semi-conducteurs (Si poreux et SiC)." Université Joseph Fourier (Grenoble ; 1971-2015), 1999. http://www.theses.fr/1999GRE10049.

Full text
Abstract:
Le travail presente dans cette these porte sur une etude par imagerie au rayonnement synchrotron de deux materiaux semi-conducteurs, le silicium poreux (sip) et le carbure de silicium (sic), dont l'interet technologique s'est considerabilment accru ces dernieres annees, notamment pour la fabrication de capteurs de gaz (sip) et de circuits electroniques de puissance (sic). Les deformations et les defauts engendres dans ces deux materiaux lors de leur croissance (sic) ou de la production de composants (sip et sic) ont ete etudies non seulement pour comprendre leur origine, mais aussi pour diminuer leur importance en modifiant le procedes. Pour atteindre ces objectifs l'imagerie aux rayons x a ete choisie comme technique d'investigation, en exploitant les caracteristiques uniques du rayonnement x disponible sur la ligne de lumiere id19 de l'esrf (grenoble), telles que la grande taille du faisceau, sa coherence transversale, le large spectre et le flux important de photons. Le manuscrit comporte deux aspects complementaires : - un developpement instrumental concernant la realisation d'un diffractometre haute resolution apte a l'utilisation conjointe de la topographie et de la diffraction, ainsi qu'un developpement methodologique dedie a l'analyse de la forme et de la taille des images obtenues par topographie en rayonnement monochromatique dans le cas de deux geometries de montage du cristal. Cette derniere analyse a ete demontree de grande utilite afin de determiner des importants parametres tels que la courbure des echantillons et le desaccord parametrique entre une couche mince epitaxiee sur un substrat et le substrat meme. - l'application de l'imagerie aux rayons x aux deux materiaux etudies. Dans le cas du sip il s'agit de comparer deux procedes technologiques de realisation de fenetres : masques de nitrure de silicium ou bien implantation de phosphore. Les differentes configurations de topographies aux rayons x sont utilisees et permettent de suivre les defauts au cours de differentes etapes du procede. On peut noter, en particulier, la presence d'une distribution de desaccord parametrique dans le sip et l'existence de gradients de contrainte en bord de motif. Dans le cas du sic la croissance de lingots, par la methode de lely modifiee, a ete etudiee par topographie en exploitant les proprietes de haute energie des photons et de flux important qui ont permis de les analyser sans les decouper. De plus, grace aux proprietes de choerence du faisceau x nous avons visualise la presence dans le volume des cristaux de macro et micro-defauts par contraste de phase. Un recent procede technologique, la fabrication de couches minces de carbure de silicium sur isolant (sicoi) a ete etudie dans la derniere partie de ce travail de these.
APA, Harvard, Vancouver, ISO, and other styles
16

Jorat, Luc. "Propriétés électriques et diélectriques des liquides organiques refroidis jusqu'à leur température de transition vitreuse." Saint-Etienne, 1987. http://www.theses.fr/1987STET4015.

Full text
Abstract:
Réalisation d'un spectromètre de relaxation diélectrique, en grande partie automatisé fonctionnant de 10 Mhz à 1 Mhz, entre 350 et 77 k. Réalisation de programmes pour ajuster les profils de dispersion et d'absorption, les variations thermiques des temps de relaxation et de la permittivité statique. Etude de solutions d'une molécule moléculaire (carbonate de propène) dilué dans un solvant très faiblement polaire (toluène) : estimation du moment dipolaire du soluté de la température ambiante jusqu'à la transition vitreuse et caractérisation du solvant. Etude des variations thermiques de la viscosité de cisaillement, du temps de relaxation diélectrique et de la conduction ionique de liquides dipolaires à faible association moléculaire (carbonate de propène, phtalastes de diéthyle et de dibutyle) : bon accord avec la relation de Doolittle et le modèle de Cohen et Grest : les énergies d'activation de ces processus (origine commune dans la nature coopérative des mouvements moléculaires) sont quasi identiques jusqu'à t::(g)
APA, Harvard, Vancouver, ISO, and other styles
17

Glowacki, Frédérique. "Uhv-cvd : épitaxies, hétéro-épitaxies et dopages du silicium et de son alliage SiGe." Université Joseph Fourier (Grenoble ; 1971-2015), 1994. http://www.theses.fr/1994GRE10114.

Full text
Abstract:
Ce manuscrit traite de la mise au point et des potentialites d'une nouvelle technique cvd utilisable avec des plaquettes de silicium de 200 mm de diametre et dont les applications concernent essentiellement les epi- et hetero-epitaxies de si et sige. L'objectif a ete double: (i) etudier une machine et son positionnement par rapport aux autres et (ii) developper des procedes dans ce prototype. La technique uhv-cvd retenue est basee sur l'ultravide pour garantir un taux de contamination et de fuite minimum et pour pouvoir travailler en regime de gaz moleculaire ( 10#-#3 torr). Apres avoir decrit le contexte ayant preside au choix technique de la machine fabriquee par riber, celle-ci est presentee avec ses principales fonctionnalites et limites techniques. Cette machine etant un prototype en perpetuelle amelioration, il a fallu developper dans le meme temps des procedes typiques comme l'epitaxie de si (dope ou non) et l'hetero-epitaxie de sige. Pour valoriser cette technique, des structures comparables a celles obtenues soit par mbe soit par cvd dans les autres gammes de pression ont ete realisees. Les resultats materiaux sont au moins comparables sinon meilleurs a ceux publies dans la litterature: transistors bipolaires a heterojonction, multi-puits quantiques, gaz bidimensionnels de trous parallelement a ces etudes, l'ellipsometrie spectroscopique (es) in-situ a ete utilisee comme outil de caracterisation non destructif. Les resultats obtenus pour differentes applications montrent que l'es (i) s'imposera dans les futurs reacteurs mono-plaque et (ii) qu'elle pourra fournir les indices optiques du si et sige a toute temperature au dessus de l'ambiante. Enfin, cette technique d'uhv-cvd (equipement et procedes) doit se confronter a celles en cours de developpement ou deja presentes sur le marche des semi-conducteurs. Les differents avantages et positionnements possibles de cette technique sont donc abordes
APA, Harvard, Vancouver, ISO, and other styles
18

Christoforou, Georges. "Conception de préamplificateurs intégrés pour fonctionnement à basse température et sous rayonnement intense." Université Joseph Fourier (Grenoble), 1998. http://www.theses.fr/1998GRE10031.

Full text
Abstract:
Le grand nombre de voies d'acquisition des signaux issus du calorimetre electromagnetique du detecteur atlas (machine lhc) pose un probleme de cablage et des solutions prevoyant le placement de la partie amont de la chaine electronique d'acquisition dans le meme milieu que l'element froid de detection ont ete envisagees. L'electronique amont doit donc etre resistante aux radiations (2 10#1#4n/cm#2, 0. 5mrad), fonctionner a la temperature de l'argon liquide (89k), avoir un faible niveau de bruit, une non-linearite inferieure a 1%, consommer peu et etre rapide (40mhz). Dans le cadre de ce projet nous avons explore les possibilites offertes par les differentes technologies. Nous avons retenu les technologies asga qui resistent aux radiations et fonctionnent jusqu'a des temperatures cryogeniques. Nous avons mis en evidence au moyen de caracterisations (a basse temperature) le fait que les technologies asga sont capables de fonctionner dans un tel environnement. Les amplificateurs concus presentent une amelioration de leurs performances quand ils fonctionnent a basse temperature (reduction du bruit, reduction de la puissance dissipee augmentation du gain) rencontrant les contraintes posees par la calorimetrie dans atlas, faible niveau de bruit, faible puissance dissipee, grande dynamique de sortie et bonne non-linearite integrale, mais ne sont pas encore capables d'assurer un niveau de fiabilite de fabrication suffisant. Nous abordons egalement le probleme de la simulation des mesfet a basse temperature. Les modeles manquant, nous avons employe pour la simulation des parametres spice extraits a la temperature de l'azote liquide. Finalement, nous avons approfondi la simulation du bruit des circuits analogiques et mis en evidence les problemes existant ainsi que les precautions a prendre afin de rendre la simulation spice du bruit plus fiable.
APA, Harvard, Vancouver, ISO, and other styles
19

Pascarelli, Sakura. "Étude EXAFS d'alliages semiconducteurs épitaxiés par détection du rayonnement X de fluorescence." Université Joseph Fourier (Grenoble ; 1971-2015), 1997. http://www.theses.fr/1997GRE10131.

Full text
Abstract:
Ce travail de these avait pour ambition l'etude des modifications de la structure atomique locale dans des alliages pseudobinaires de semiconducteurs sous contraintes epitaxiales. Compte tenu de leurs potentiels technologiques, les heterostructures ingaas/inp apparaissaient comme des systemes de choix pour cette etude qui vise a une meilleure comprehension des processus intervenant lors de la deposition epitaxiale. En effet, les processus de reorganisation atomique, lies a une minimisation d'energie interviennent dans tous composes epitaxies et presentent donc un grand interet fondamental. Sur le plan experimental, l'exafs en detection de fluorescence, en complement a d'autres techniques plus conventionnelles, s'est averee comme une technique parfaitement adaptee a cette investigation. Ce travail est donc compose de deux partie distinctes : d'une part, une description de la ligne de lumiere synchrotron gilda sur laquelle a ete realise l'ensemble des mesures, et d'autre part, la description de trois experiences visant a l'etude de la structure microscopique aux interfaces et des distorsions atomiques dans les couches epitaxiales, ainsi que la presentation d'un modele original decrivant les distorsions mesurees dans ces systemes. Les mesures experimentales ont beneficie d'une instrumentation adaptee, decrite dans la partie i, associant des miroirs de collimation et de refocalisation et un monochromateur a deux cristaux avec une focalisation sagittale dynamique. Ce dernier a permis de tirer un profit optimal du flux, produit par la source synchrotron de troisieme generation, permettant ainsi l'investigation de systemes tres dilues. La realisation de ce monochromateur a entre autre necessite une comprehension theorique approfondie de la focalisation sagittale par diffraction de bragg. Cette etude a abouti a l'elaboration d'un modele dont la validation experimentale a ete faite sur gilda. Le but de l'etude structurale decrit dans la partie ii est double : etudier la structure microscopique aux interfaces et comparer la structure locale dans les couches de semiconducteurs de type ab#xc#1#-#x sous contraintes a celle dans les composes massifs. Les trois exemples etudies, multicouches ingaas/inp et inasp/inp et monocouches ingaas/inp, ont montre que des mecanismes de reorganisation atomique existent a l'interieur de la maille. L'importance quantitative de ce rearrangement est directement proportionnelle a la quantite de contraintes epitaxiales introduites dans le systeme. L'elaboration d'un nouveau modele a ete necessaire a l'interpretation de ces donnees experimentales.
APA, Harvard, Vancouver, ISO, and other styles
20

Robach, Odile. "Étude in situ de la croissance de Ag sur MgO(001) et de Ni/Ag(001), et étude de la nitruration du GaAs par diffusion de rayons X en incidence rasante." Université Joseph Fourier (Grenoble ; 1971-2015), 1997. http://www.theses.fr/1997GRE10226.

Full text
Abstract:
Un nouvel instrument est presente, qui permet l'elaboration d'interfaces dans une chambre ultra-vide et l'etude in situ de leur structure et de leur morphologie par diffusion des rayons x en incidence rasante (dxir). Il est installe sur la ligne de lumiere crg/if d32 de l'esrf. Une nouvelle description du mode de croissance de l'ag sur le mgo est proposee, dans laquelle, des 0. 2 monocouches (mc) d'ag deposees, le depot est sous forme d'ilots et la majorite de l'ag est relaxee. La signification physique de la fraction en site de l'ag est discutee, ainsi que les possibilites de calcul des positions atomiques dans un ilot d'ag deforme par les contraintes d'epitaxie dues au mgo. La preparation de surfaces de mgo bien adaptees aux etudes par dxir est decrite. Les phases presentes dans differents depots de ni sur ag (001) ont ete identifiees et caracterisees. A tous les montants de depots de 1 a 20 mc, trois phases coexistent : du ni en site, du ni (001) relaxe et du ni (011) 4h, qui forment des colonnes s'etendant jusqu'a la surface du depot. Une rugosification de l'ag liee au depot de ni a ete mise en evidence, ainsi que de fortes deformations de l'ag. La nitruration a l'aide d'une source d'azote a resonance cyclotron electronique (ecr) des surfaces (001) et (-1-1-1)b du gaas a ete etudiee. Pour former une couche de gan d'epaisseur bien definie il est preferable de separer la phase d'implantation des atomes d'azote dans le gaas de la phase de recuit declenchant la formation du gan. Des developpements de la technique d'analyse sont presentes, qui concernent en particulier les calculs de resolution instrumentale et l'analyse des donnees de diffusion aux petits angles en incidence rasante.
APA, Harvard, Vancouver, ISO, and other styles
21

Geoffray, Hervé. "Etude et réalisation d'une caméra thermique destinée à un système d'optique adaptative : application à l'étude de la matière circumstellaire autour d'étoiles binaires pré-séquence principale." Phd thesis, Université Joseph Fourier (Grenoble), 1998. http://tel.archives-ouvertes.fr/tel-00724512.

Full text
Abstract:
Ce travail de thèse concerne le suivi d'une caméra infrarouge sensible dans la gamme 1-5 p.m (COMIC), depuis la caractérisation en laboratoire de la mosaïque de détecteurs, jusqu'à son utilisation dans le cadre d'observations astronomiques, sur le système d'Optique Adaptative ADONIS au télescope de 3.60 m de l'Observatoire Européen Austral (ESO), au Chili. Ce manuscrit comporte trois parties qui suivent l'enchainement chronologique "naturel" de l'étude, dans des lieux de travail différents. La première partie concerne la mosaïque de détecteurs COMIC (IRCCD 128X128 HgCdTe), en commençant par sa caractérisation en laboratoire, pour finir par sa mise en opération sous télescope, au sein de la caméra COMIC. Elle s'est d'abord déroulée au sein du Laboratoire Infrarouge (LETI/DOPT/CEA-Grenoble), puis à l'ESO, au Chili. La deuxième partie traite des spécificités de l'observation infrarouge avec un instrument d'Optique Adaptative. Cette partie est le résultat de l'expérience acquise au cours d'un long séjour à l'ESO. Elle unit le point de vue technique de la première partie à celui de l'astronome utilisateur. Enfin, une illustration du potentiel de l'instrument (COMIC+ADONIS) est donnée en troisième partie dans le cadre d'un programme astronomique bien défini: l'étude de la matière circumstellaire dans des systèmes binaires pré-Séquence Principale. Cette dernière étude a été menée à l'Observatoire de Grenoble.
APA, Harvard, Vancouver, ISO, and other styles
22

Du, Mike. "Realtime Dynamic Binary Instrumentation." Thesis, 2016. http://hdl.handle.net/1805/10906.

Full text
Abstract:
Indiana University-Purdue University Indianapolis (IUPUI)<br>This thesis presents a novel technique and framework for decreasing instrumenta- tion overhead in software systems that utilize dynamic binary instrumentation. First, we introduce a lightweight networking framework combined with an easily extensible BSON implementation as a heavy analysis routine replacement. Secondly, we bind instrumentation and analysis threads to non-overlapping cpu cores--allowing analysis threads to execute faster. Lastly, we utilize a lock-free buffering system to bridge the gap between instrumentation and analysis threads, and minimize the overhead to the instrumentation threads. Using this combination, we managed to write a dynamic binary instrumentation tool (DBI) in Pin using Pin++ that is almost 1100 % faster than its counterpart DBI tool with no buffering, and less than 500% slower than a similar tool with no analysis routine.
APA, Harvard, Vancouver, ISO, and other styles
23

Huang, Jian Jong, and 黃建忠. "EMBI:Exploit Mitigation based on Binary Instrumentation." Thesis, 2015. http://ndltd.ncl.edu.tw/handle/h54wnc.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Chen, Yi-Hsien, and 陳怡嫻. "JSEMU: An Emulation Framework for Dynamically Adjustable Binary Instrumentation Policy." Thesis, 2014. http://ndltd.ncl.edu.tw/handle/03420340638754073682.

Full text
Abstract:
碩士<br>國立交通大學<br>網路工程研究所<br>102<br>Dynamic binary analysis (DBA) tools help analyst to observe unknown binaries. Dynamic Binary Instrumentation (DBI) make it easy to develop new DBA tools. In previous DBI works, tool writer use APIs to design the analysis policy, and compile it to run. However, tool writer cannot predict all situations before running analysis. Unexpected situation may cause undesirable result of analysis. The intuitive solution is providing a mechanism to adjust policy at runtime. It can be easily achieved by the meta-programming feature of JavaScript. Furthermore, the performance of JavaScript significantly increased in recent years, writing emulator in JavaScript become possible. This paper presents a framework called JSEMU. JSEMU is written in JavaScript. For efficiency, JSEMU uses dynamic JavaScript translation to optimize instrumentation. Using JSEMU to develop DBA tools, tool writer can dynamically adjust policy without recompile.
APA, Harvard, Vancouver, ISO, and other styles
25

Lui, Nyalia. "Using Non-Intrusive Instrumentation to Analyze any Distributed Middleware in Real-Time." Thesis, 2021. http://dx.doi.org/10.7912/C2/5.

Full text
Abstract:
Indiana University-Purdue University Indianapolis (IUPUI)<br>Dynamic Binary Instrumentation (DBI) is one way to monitor a distributed system in real-time without modifying source code. Previous work has shown it is possible to instrument distributed systems using standards-based distributed middleware. Existing work, however, only applies to a single middleware, such as CORBA. This thesis therefore presents a tool named the Standards-based Distributed Middleware Monitor (SDMM), which generalizes two modern standards-based distributed middleware, the Data Distribution Service (DDS) and gRemote Procedure Call (gRPC). SDMM uses DBI to extract values and other data relevant to monitoring a distributed system in real-time. Using dynamic instrumentation allows SDMM to capture information without a priori knowledge of the distributed system under instrumentation. We applied SDMM to systems created with two DDS vendors, RTI Connext DDS and OpenDDS, as well as gRPC which is a complete remote procedure call framework. Our results show that the data collection process contributes to less than 2% of the run-time overhead in all test cases.
APA, Harvard, Vancouver, ISO, and other styles
26

Deo, Mrinal. "A memory profiler for 3D graphics application using ninary instrumentation." Thesis, 2011. http://hdl.handle.net/2152/ETD-UT-2011-05-3506.

Full text
Abstract:
This report describes the architecture and implementation of a memory profiler for 3D graphics applications. The memory profiling is done for parts of the program which runs on the graphics processor and is responsible for rendering the image. The shaders are parsed and every memory instruction is instrumented with additional instruction for profiling. The results are then transferred from the video memory to CPU memory. Profiling is done for a frame and completes in less than three minutes. The report also describes various analyses that can be done using the results obtained from this profiler. The report discusses the design of an analytical cache model that can be used to identify candidate memory buffers suitable for caching among all the buffers used by an application. The profiler can segregate results for reads and writes separately, can handle all formats of texture access instructions and predicated instructions.<br>text
APA, Harvard, Vancouver, ISO, and other styles
27

(10686993), Nyalia James-Korsuk Lui. "Using Non-Intrusive Instrumentation to Analyze any Distributed Middleware in Real-Time." Thesis, 2021.

Find full text
Abstract:
<div>Dynamic Binary Instrumentation (DBI) is one way to monitor a distributed system in real-time without modifying source code. Previous work has shown it is possible to instrument distributed systems using standards-based distributed middleware. Existing work, however, only applies to a single middleware, such as CORBA.</div><div><br></div><div>This thesis therefore presents a tool named the Standards-based Distributed Middleware Monitor (SDMM), which generalizes two modern standards-based distributed middleware, the Data Distribution Service (DDS) and gRemote Procedure Call (gRPC). SDMM uses DBI to extract values and other data relevant to monitoring a distributed system in real-time. Using dynamic instrumentation allows SDMM to capture information without a priori knowledge of the distributed system under instrumentation. We applied SDMM to systems created with two DDS vendors, RTI Connext DDS and OpenDDS, as well as gRPC which is a complete remote procedure call framework. Our results show that the data collection process contributes to less than 2% of the run-time overhead in all test cases.</div>
APA, Harvard, Vancouver, ISO, and other styles
28

Ρόκας, Παρασκευάς. "Βελτιστοποίηση και επαλήθευση μοντέλων πρόβλεψης της απόδοσης". Thesis, 2010. http://nemertes.lis.upatras.gr/jspui/handle/10889/3891.

Full text
Abstract:
Η σχεδίαση μικροεπεξεργαστών είναι μια πολύπλοκη και σύνθετη διαδικασία, η οποία δυσκολεύει όσο οι τεχνολογικές εξελίξεις προχωράνε. Οι μελετητές της απόδοσης των μικροεπεξεργαστών, για να μελετήσουν την απόδοση ενός συστήματος καταλήγουν στη χρησιμοποίηση πλήρους προσομοίωσης, καάτι που είναι εξαιρετικά πολύπλοκο και χρονοβόρο. Σε αυτή την εργασία παρουσιάζεται ένα αναλυτικό μοντέλο που μοντελοποιεί τις επιδόσεις του επεξεργαστή με βάση το πρόγραμμα που εκτελεί και τα δομικά του χαρακτηριστικά. Το μοντέλο αυτό βασίζεται πάνω σε έναν εκτός σειράς υπερβαθμωτό επεξεργαστή. Η μοντελοποίηση βασίζεται στο γεγονός ότι ένας υπερβαθμωτός επεξεργαστής ο οποίος είναι ισορροπημένος διατηρεί σταθερή την απόδοση του εκτός αν συναντήσει ανασχετικά γεγονότα, όπως αποτυχία πρόσβασης στην κρυφή μνήμη ή λάθος στην πρόβλεψη διακλάδωσης. Τα δεδομένα του προγράμματος συλλέγονται κατά την εκτέλεση του προγράμματος με τη χρήση ενός εργαλείου παρεμβολής κώδικα σε εκτελέσιμο αρχείο, το οποίο ονομάζεται DIOTA. Παρουσιάζεται το μοντέλο σταθερής απόδοσης και μετριέται ο αντίκτυπος του κάθε ανασχετικού γεγονότος ξεχωριστά.<br>Microprocessor design is a complex and difficult process which day by day is getting more difficult as technology advances. Designers, in order to study the efficiency of a microprocessor tend to use full cycle simulation, which is extremely complex and time-consuming. In this thesis, an analytical model is presented, which is modelling the perfonmance of a proccessor in account with the executable and processor's functional characteristics. The model is based on an out of order superscalar processor. The modelling is based on the fact that a balanced superscalar processor is maintaining a steady performance rate, unless a disruptive miss event happens, such as a data cache miss or a branch misprediction. The data from the executable are gathered by using a binary rewriting tool, called DIOTA. The steady state model is being presented, and the impact of each miss event is measured.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography