To see the other types of publications on this topic, follow the link: Arquitectura de computadors.

Dissertations / Theses on the topic 'Arquitectura de computadors'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Arquitectura de computadors.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Herrero, Abellanas Enric. "Adaptive memory hierarchies for next generation tiled microarchitectures." Doctoral thesis, Universitat Politècnica de Catalunya, 2011. http://hdl.handle.net/10803/80539.

Full text
Abstract:
Les últimes dècades el rendiment dels processadors i de les memòries ha millorat a diferent ritme, limitant el rendiment dels processadors i creant el conegut memory gap. Sol·lucionar aquesta diferència de rendiment és un camp d'investigació d'actualitat i que requereix de noves sol·lucions. Una sol·lució a aquest problema són les memòries “cache”, que permeten reduïr l'impacte d'unes latències de memòria creixents i que conformen la jerarquia de memòria. La majoria de d'organitzacions de les “caches” estan dissenyades per a uniprocessadors o multiprcessadors tradicionals. Avui en dia, però, el creixent nombre de transistors disponible per xip ha permès l'aparició de xips multiprocessador (CMPs). Aquests xips tenen diferents propietats i limitacions i per tant requereixen de jerarquies de memòria específiques per tal de gestionar eficientment els recursos disponibles. En aquesta tesi ens hem centrat en millorar el rendiment i la eficiència energètica de la jerarquia de memòria per CMPs, des de les “caches” fins als controladors de memòria. A la primera part d'aquesta tesi, s'han estudiat organitzacions tradicionals per les “caches” com les privades o compartides i s'ha pogut constatar que, tot i que funcionen bé per a algunes aplicacions, un sistema que s'ajustés dinàmicament seria més eficient. Tècniques com el Cooperative Caching (CC) combinen els avantatges de les dues tècniques però requereixen un mecanisme centralitzat de coherència que té un consum energètic molt elevat. És per això que en aquesta tesi es proposa el Distributed Cooperative Caching (DCC), un mecanisme que proporciona coherència en CMPs i aplica el concepte del cooperative caching de forma distribuïda. Mitjançant l'ús de directoris distribuïts s'obté una sol·lució més escalable i que, a més, disposa d'un mecanisme de marcatge més flexible i eficient energèticament. A la segona part, es demostra que les aplicacions fan diferents usos de la “cache” i que si es realitza una distribució de recursos eficient es poden aprofitar els que estan infrautilitzats. Es proposa l'Elastic Cooperative Caching (ElasticCC), una organització capaç de redistribuïr la memòria “cache” dinàmicament segons els requeriments de cada aplicació. Una de les contribucions més importants d'aquesta tècnica és que la reconfiguració es decideix completament a través del maquinari i que tots els mecanismes utilitzats es basen en estructures distribuïdes, permetent una millor escalabilitat. ElasticCC no només és capaç de reparticionar les “caches” segons els requeriments de cada aplicació, sinó que, a més a més, és capaç d'adaptar-se a les diferents fases d'execució de cada una d'elles. La nostra avaluació també demostra que la reconfiguració dinàmica de l'ElasticCC és tant eficient que gairebé proporciona la mateixa taxa de fallades que una configuració amb el doble de memòria.Finalment, la tesi es centra en l'estudi del comportament de les memòries DRAM i els seus controladors en els CMPs. Es demostra que, tot i que els controladors tradicionals funcionen eficientment per uniprocessadors, en CMPs els diferents patrons d'accés obliguen a repensar com estan dissenyats aquests sistemes. S'han presentat múltiples sol·lucions per CMPs però totes elles es veuen limitades per un compromís entre el rendiment global i l'equitat en l'assignació de recursos. En aquesta tesi es proposen els Thread Row Buffers (TRBs), una zona d'emmagatenament extra a les memòries DRAM que permetria guardar files de dades específiques per a cada aplicació. Aquest mecanisme permet proporcionar un accés equitatiu a la memòria sense perjudicar el seu rendiment global. En resum, en aquesta tesi es presenten noves organitzacions per la jerarquia de memòria dels CMPs centrades en la escalabilitat i adaptativitat als requeriments de les aplicacions. Els resultats presentats demostren que les tècniques proposades proporcionen un millor rendiment i eficiència energètica que les millors tècniques existents fins a l'actualitat.
Processor performance and memory performance have improved at different rates during the last decades, limiting processor performance and creating the well known "memory gap". Solving this performance difference is an important research field and new solutions must be proposed in order to have better processors in the future. Several solutions exist, such as caches, that reduce the impact of longer memory accesses and conform the system memory hierarchy. However, most of the existing memory hierarchy organizations were designed for single processors or traditional multiprocessors. Nowadays, the increasing number of available transistors has allowed the apparition of chip multiprocessors, which have different constraints and require new ad-hoc memory systems able to efficiently manage memory resources. Therefore, in this thesis we have focused on improving the performance and energy efficiency of the memory hierarchy of chip multiprocessors, ranging from caches to DRAM memories. In the first part of this thesis we have studied traditional cache organizations such as shared or private caches and we have seen that they behave well only for some applications and that an adaptive system would be desirable. State-of-the-art techniques such as Cooperative Caching (CC) take advantage of the benefits of both worlds. This technique, however, requires the usage of a centralized coherence structure and has a high energy consumption. Therefore we propose the Distributed Cooperative Caching (DCC), a mechanism to provide coherence to chip multiprocessors and apply the concept of cooperative caching in a distributed way. Through the usage of distributed directories we obtain a more scalable solution and, in addition, has a more flexible and energy-efficient tag allocation method. We also show that applications make different uses of cache and that an efficient allocation can take advantage of unused resources. We propose Elastic Cooperative Caching (ElasticCC), an adaptive cache organization able to redistribute cache resources dynamically depending on application requirements. One of the most important contributions of this technique is that adaptivity is fully managed by hardware and that all repartitioning mechanisms are based on distributed structures, allowing a better scalability. ElasticCC not only is able to repartition cache sizes to application requirements, but also is able to dynamically adapt to the different execution phases of each thread. Our experimental evaluation also has shown that the cache partitioning provided by ElasticCC is efficient and is almost able to match the off-chip miss rate of a configuration that doubles the cache space. Finally, we focus in the behavior of DRAM memories and memory controllers in chip multiprocessors. Although traditional memory schedulers work well for uniprocessors, we show that new access patterns advocate for a redesign of some parts of DRAM memories. Several organizations exist for multiprocessor DRAM schedulers, however, all of them must trade-off between memory throughput and fairness. We propose Thread Row Buffers, an extended storage area in DRAM memories able to store a data row for each thread. This mechanism enables a fair memory access scheduling without hurting memory throughput. Overall, in this thesis we present new organizations for the memory hierarchy of chip multiprocessors which focus on the scalability and of the proposed structures and adaptivity to application behavior. Results show that the presented techniques provide a better performance and energy-efficiency than existing state-of-the-art solutions.
APA, Harvard, Vancouver, ISO, and other styles
2

Hasanov, Zyulkyarov Ferard. "Programming, debugging, profiling and optimizing transactional memory programs." Doctoral thesis, Universitat Politècnica de Catalunya, 2011. http://hdl.handle.net/10803/32283.

Full text
Abstract:
Transactional memory (TM) is a new optimistic synchronization technique which has the potential of making shared memory parallel programming easier compared to locks without giving up from the performance. This thesis explores four aspects in the research of transactional memory. First, it studies how programming with TM compares to locks. During the course of work, it develops the first real transactional application ¿ AtomicQuake. AtomicQuake is adapted from the parallel version of the Quake game server by replacing all lock-based synchronization with atomic blocks. Findings suggest that programming with TM is indeed easier than locks. However the performance of current software TM systems falls behind the efficiently implemented lock-based versions of the same program. Also, the same findings report that the proposed language level extensions are not sufficient for developing robust production level software and that the existing development tools such as compilers, debuggers, and profilers lack support for developing transactional application. Second, this thesis introduces new set of debugging principles and abstractions. These new debugging principles and abstractions enable debugging synchronization errors which manifest at coarse atomic block level, wrong code inside atomic blocks, and also performance errors related to the implementation of the atomic block. The new debugging principles distinguish between debugging at the language level constructs such as atomic blocks and debugging the atomic blocks based on how they are implemented whether TM or lock inference. These ideas are demonstrated by implementing a debugger extension for WinDbg and the ahead-of-time C# to X86 Bartok-STM compiler. Third, this thesis investigates the type of performance bottlenecks in TM applications and introduces new profiling techniques to find and understand these bottlenecks. The new profiling techniques provide in-depth and comprehensive information about the wasted work caused by aborting transactions. The individual profiling abstractions can be grouped in three groups: (i) techniques to identify multiple conflicts from a single program run, (ii) techniques to describe the data structures involved in conflicts by using a symbolic path through the heap, rather than a machine address, and (iii) visualization techniques to summarize which transactions conflict most. The ideas were demonstrated by building a lightweight profiling framework for Bartok-STM and an offline tool which process and display the profiling data. Forth, this thesis explores and introduces new TM specific optimizations which target the wasted work due to aborting transactions. Using the results obtained with the profiling tool it analyzes and optimizes several applications from the STAMP benchmark suite. The profiling techniques effectively revealed TM-specific bottlenecks such as false conflicts and contentions accesses to data structures. The discovered bottlenecks were subsequently eliminated with using the new optimization techniques. Among the optimization highlights are the transaction checkpoints which reduced the wasted work in Intruder with 40%, decomposing objects to eliminate false conflicts in Bayes, early release in Labyrinth which decreased wasted work from 98% to 1%, using less contentions data structures such as chained hashtable in Intruder and Genome which have higher degree of parallelism.
APA, Harvard, Vancouver, ISO, and other styles
3

Vilaplana, Mayoral Jordi. "Management of Cloud systems applied to eHealth." Doctoral thesis, Universitat de Lleida, 2015. http://hdl.handle.net/10803/311417.

Full text
Abstract:
This thesis explores techniques, models and algorithms for an efficient management of Cloud systems and how to apply them to the healthcare sector in order to improve current treatments. It presents two Cloud-based eHealth applications to telemonitor and control smoke-quitting and hypertensive patients. Different Cloud-based models were obtained and used to develop a Cloudbased infrastructure where these applications are deployed. The results show that these applications improve current treatments and that can be scaled as computing requirements grow. Multiple Cloud architectures and models were analyzed and then implemented using different techniques and scenarios. The Smoking Patient Control (S-PC) tool was deployed and tested in a real environment, showing a 28.4% increase in long-term abstinence. The Hypertension Patient Control (H-PC) tool, was successfully designed and implemented, and the computing boundaries were measured
Aquesta tesi explora tèniques, models i algorismes per una gestió eficient en sistemes al Núvol i com aplicar-ho en el sector de la salut per tal de millorar els tractaments actuals. Presenta dues aplicacions de salut electrònica basades en el Núvol per telemonitoritzar i controlar pacients fumadors i hipertensos. S'ha obtingut diferents models basats en el Núvol i s'han utilitzat per a desenvolupar una infraestructura on desplegar aquestes aplicacions. Els resultats mostren que aquestes aplicacions milloren els tractaments actuals així com escalen a mesura que els requeriments computacionals augmenten. Múltiples arquitectures i models han estat analitzats i implementats utilitzant diferents tècniques i escenaris. L'aplicació Smoking Patient Control (S-PC) ha estat desplegada i provada en un entorn real, aconseguint un augment del 28,4% en l'absistinència a llarg termini de pacients fumadors. L'aplicació Hypertension Patient Control (H-PC) ha estat dissenyada i implementada amb èxit, i els seus límits computacionals han estat mesurats.
Esta tesis explora ténicas, modelos y algoritmos para una gestión eficiente de sistemas en la Nube y como aplicarlo en el sector de la salud con el fin de mejorar los tratamientos actuales. Presenta dos aplicaciones de salud electrónica basadas en la Nube para telemonitorizar y controlar pacientes fumadores e hipertensos. Se han obtenido diferentes modelos basados en la Nube y se han utilizado para desarrollar una infraestructura donde desplegar estas aplicaciones. Los resultados muestran que estas aplicaciones mejoran los tratamientos actuales así como escalan a medida que los requerimientos computacionales aumentan. Múltiples arquitecturas y modelos han sido analizados e implementados utilizando diferentes técnicas y escenarios. La aplicación Smoking Patient Control (S-PC) se ha desplegado y provado en un entorno real, consiguiendo un aumento del 28,4% en la abstinencia a largo plazo de pacientes fumadores. La aplicación Hypertension Patient Control (H-PC) ha sido diseñada e implementada con éxito, y sus límites computacionales han sido medidos.
APA, Harvard, Vancouver, ISO, and other styles
4

Castellà, Martínez Damià. "Computación distribuida en entornos peer-to-peer con calidad de servicio." Doctoral thesis, Universitat de Lleida, 2011. http://hdl.handle.net/10803/51011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Martín, Rull Enric X. (Enric Xavier). "Contribució als mètodes d'obtenció i representació de vistes d'objectes reals per aplicacions interactives." Doctoral thesis, Universitat Politècnica de Catalunya, 2006. http://hdl.handle.net/10803/6195.

Full text
Abstract:
En aquesta tesi s'han realitzat una sèrie d'experiments per tal de cercar, identificar, caracteritzar i comparar diversos mètodes d'obtenció de vistes d'objectes reals per aplicacions interactives de realitat augmentada, telepresència o altres que puguin idear-se en el futur.
Durant el desenvolupament dels mètodes trobats, de naturalesa diversa, han sorgit dificultats que han fet aprofundir aquest treball en l'àmbit de la geometria de la síntesi de vistes, la reconstrucció de l'estructura tridimensional dels objectes, l'acceleració de certs algoritmes amb l'ajut del maquinari existent o la portabilitat de les dades a través de la xarxa.
Concretament, s'han identificat tres mètodes que poden satisfer els requeriments plantejats. El primer, accés a vistes d'objectes comprimides en fitxers, es basa en l'organització de les dades presentada, la capacitat de compressió dels algoritmes i el suport del maquinari a la tasca de descompressió. El segon mètode, reconstrucció tridimensional i projecció emprant el coprocessador gràfic, aprofita les altes prestacions d'aquests últims, impulsats per les necessitats del mercat. El tercer, selecció d'un conjunt representatiu de vistes i interpolació entre elles, aprofita les propietats de la rectificació de tres vistes i l'exactitud de la interpolació de vistes si es disposa d'un mapa de disparitat prou dens. Aquesta necessitat ha connectat aquest mètode amb el segon, al que cal el model tridimensional reconstruït, ja que hi ha una equivalència entre les dues expressions de la informació.
Per la comparació dels resultats dels mètodes estudiats, s'han seguit tres criteris:
- El primer, òbviament, el de la qualitat de les vistes obtingudes de l'objecte. Ha calgut identificar les principals fonts d'error en els processos i cercar uns avaluadors d'aquest error. A més d'aquests numèrics se n'han cercat de subjectius ja que el destinatari de les vistes serà un ésser humà.
- El temps d'obtenció d'una vista (important per la interactivitat), projectat a les plataformes tecnològiques existents o previsibles.
- La mida de les dades necessàries per cadascun dels mètodes, que limitarà la portabilitat de la visualització dels objectes.
Durant la realització d'aquesta tesi, s'han realitzat algunes contribucions, la majoria d'elles ja publicades, que es poden resumir en:
- Disseny d'una metodologia per la representació d'objectes a partir de conjunts de vistes i mètodes de síntesi. En aquesta metodologia s'ha presentat un protocol per l'adquisició i ordenació de les dades, idees per la selecció del conjunt mínim de vistes, un criteri per gravar la mínima informació necessària, ajuts a l'obtenció de la informació tridimensional de l'escena necessària, i un algoritme ràpid i general de síntesi de vistes.

- Supressió de les restriccions geomètriques del mètode de síntesi per rectificació de tres vistes, permetent generalitzar la ubicació de la càmera virtual i optimitzar la distància del pla de reprojecció per maximitzar l'àrea de la vista interpolada.
- Especificació de l'algoritme de síntesi de vistes pel mètode de rectificació de tres vistes, de forma que es pugui implementar amb processadors tipus DSP o conjunts d'instruccions específiques dels processadors CISC, per assolir les necessitats de les aplicacions interactives.
- Presentació d'un mètode de refinament de models tridimensionals obtinguts per space carving mitjançant estereovisió. El mètode combina dues tècniques conegudes de visió per ordinador obtenint un millor resultat en la reconstrucció tridimensional.
- Acceleració del mètode de reconstrucció tridimensional per projecció de vòxels amb la utilització de mapes de distància, estructures en arbre i el coprocessador gràfic present en els computadors personals.
Els resultats obtinguts en la tesi s'han adaptat per aplicar-se a un projecte de simulació de situacions de conducció en carreteres amb realitat augmentada, desenvolupat per la UPC i la Universitat de Toronto i un segon de representació remota de vistes d'objectes arqueològics, desenvolupat per la UPC, la UB i un conjunt d'universitats estrangeres.
This work shows a set of experiments to identify, characterize and compare several methods for obtaining real object views in interactive applications such as augmented reality, telepresence or other future developments.
While developing those methods, the problems found have induced a deeper study of view synthesis geometry, object three-dimensional structure, hardware process acceleration and data portability through the internet.
Three methods have been found that meet the ends of this work. First, file-stored object-view access rests in data organization, compression- algorithm capabilities and hardware support to decompression. The second method, 3D object reconstruction and graphic coprocessor based projection, takes advantage of market driven GPU evolution. Finally, the representative view-set selection and interpolation method, uses the three-view-rectification properties and the precision of view interpolation when a dense-enough disparity map is available. This last requirement binds the second and third methods in the need of a good 3D object reconstruction, 3D models and disparity maps being two expressions for the same data.
To compare the method results three criteria have been used:
- Object view image quality. It has been necessary to identify the main source of errors on the processes and to find some evaluators for those errors. As the results of the process are images to be shown to humans, with those numerical evaluators a subjective evaluator has been used too.
- Process time, important for the interactivity aim, calculated with current technology but projected to next foreseeable platforms.
- Amount of data that must be recorded in each method, which will be a key point for portability.
While developing this work, some contributions have been achieved and they can be summarized as:
- Design of a methodology to represent any object view from a reduced set of views and synthesis methods. The methodology includes a protocol to acquire and organize data, ideas for a minimum view set selection, a criterion to record the minimum amount of data, improvements in obtaining the three-dimensional structure of the scene and a fast and general synthesis algorithm.
- Suppression of some geometric restrictions in the three-view-rectification method, allowing a more general positioning for the virtual camera and a maximization of the virtual image area through the distance to the reprojection plane.
- A complete specification for the modified three-view rectification and view interpolation method allowing its implementation with DSP or MMX instructions to achieve the requirements of interactive applications.
- Presentation of a method to refine three-dimensional models obtained by space carving through stereovision. This method combines two well-known computer vision techniques to achieve a better result in 3D reconstruction.
- Acceleration of the space carving 3D reconstruction method with the use of an octree voxel organization, projection to special distance maps and taking advantage of the GPU performance to speed-up the projection.
Some of the results of this work will be used in the construction of an augmented reality driving simulator (UPC- University of Toronto) and the implementation of a remote viewer of archaeological objects (UPC - UB - other universities).
APA, Harvard, Vancouver, ISO, and other styles
6

Lera, Castro Isaac. "Ontology Matching based On Class Context: to solve interoperability problem at Semantic Web." Doctoral thesis, Universitat de les Illes Balears, 2012. http://hdl.handle.net/10803/84074.

Full text
Abstract:
When we look at the amount of resources to convert formats to other formats, that is to say, to make information systems useful, it is the time when we realise that our communication model is inefficient. The transformation of information, as well as the transformation of energy, remains inefficient for the efficiency of the converters. In this work, we propose a new way to ``convert'' information, we propose a mapping algorithm of semantic information based on the context of the information in order to redefine the framework where this paradigm merges with multiple techniques. Our main goal is to offer a new view where we can make further progress and, ultimately, streamline and minimize the communication chain in integration process
APA, Harvard, Vancouver, ISO, and other styles
7

Recatalá, Ballester Gabriel. "Visual determination, tracking and execution of 2D grasps using a behavior-inspired approach." Doctoral thesis, Universitat Jaume I, 2003. http://hdl.handle.net/10803/10371.

Full text
Abstract:
This thesis focuses on the definition of a task for the determination, tracking and execution of a grasp on an unknown object. In particular, it is considered the case in which the object is ideally planar and the grasp has to be executed with a two-fingered, parallel-jaw gripper using vision as the source of sensor data. For the specification of this task, an architecture is defined that is based on three basic components -virtual sensors, filters, and actuators-, which can be connected to define a control loop. Each step in this task is analyzed separately, considering several options in some cases.
Some of the main contributions of this thesis include: (1) the use of a modular approach to the specification of a control task that provides a basic framework for supporting the concept of behavior; (2) the analysis of several strategies for obtaining a compact representation of the contour of an object; (3) the development of a method for the evaluation and search of a grasp on a planar object for a two-fingered gripper; (4) the specification of different representations of a grasp and the analysis of their use for tracking the grasp between different views of an object; (5) the specification of algorithms for the tracking of a grasp along the views of an object obtained from a sequence of single images and a sequence of stereo images; (6) the definition of parametrized models of the target position of the grasp points and of the feasibility of this target grasp, and of an off-line procedure for the computation of some of the reference values required by this model; and (7) the definition and analysis of a visual servoing control scheme to guide the gripper of a robot arm towards an unknown object using the grasp points computed for that object as control features.
APA, Harvard, Vancouver, ISO, and other styles
8

Marín, Prades Raúl. "The UJI online robot: a distributed architecture for pattern recognition, autonomous grasping and augmented reality." Doctoral thesis, Universitat Jaume I, 2002. http://hdl.handle.net/10803/10372.

Full text
Abstract:
The thesis has been developed at the Intelligent Robotics Laboratory of the University Jaume I (Spain). The objectives are focused on the laboratory's interest fields, which are Telerobotics, Human-Robot Interaction, Manipulation, Visual Servoing, and Service Robotics in general.
Basically, the work has consisted of designing and implementing a whole vision based robotic system to control an educational robot via web, by using voice commands like "Grasp the object one" or "Grasp the cube". Our original objectives were upgraded to include the possibility of programming the robot using high level voice commands as well as very quick and significant mouse interactions ("adjustable interaction levels"). Besides this, the User interface has been designed to allow the operator to "predict" the robot movements before sending the programmed commands to the real robot ("Predictive system"). This kind of interface has the particularity of saving network bandwidth and even being used as a whole task specification off-line programming interface. By using a predictive virtual environment and giving more intelligence to the robot supposes a higher level of interaction, which avoids the "cognitive fatigue" associated with many teleoperated systems.
The most important novel contributions included in this work are the following:
1. Automatic Object Recognition: The system is able to recognize the objects in the robot scenario by using a camera as input (automatic object recognition). This feature allows the user to interact with the robot using high level commands like "Grasp allen".
2. Incremental Learning: Due to the fact that the object recognition procedure requires some kind of training before operating efficiently, the UJI Online Robot introduces the In-cremental Learning capability, that means the robot is always learning from the user in-teraction. It means the object recognition module performs better as time goes by.
3. Autonomous Grasping: Once an object has been recognized in a scene, the following question is, how can we grasp it? The autonomous grasping module calculates the set of possible grasping points that can be used in order to manipulate an object according to the stability requirements.
4. Non-Immersive Virtual Reality: In order to avoid the Internet latency and time-delay effects, the system offers a user interface based on non-immersive virtual reality. Hence, taken the camera data as input, a 3D virtual reality scenario is constructed, which allows specifying tasks that can be confirmed to the real robot in one step.
5. Augmented Reality: The 3D virtual scenario is complemented with computer generated information that helps enormously to improve the human performance (e.g. projections of the gripper over the scene is shown, superposition of data in order to avoid robot occlusions, etc.). In some situations the user has more information by controlling the robot from the user interface (web based) than seeing the robot scenario directly.
6. Task specification: The system permits specifying complete "Pick & Place" actions, which can be saved into a text file. This robot programming can be accomplished using both, the off-line and the on-line mode.
7. Speech recognition/synthesis: To our knowledge this is the first online robot that allows the user to give high-level commands by using simply a microphone. Moreover, the speech synthesizer is integrated into the predictive display, in such a way that the robot re-sponds to the user and asks him/her for confirmation before sending the command to the real scenario.
As explained at Chapter I, the novel contributions have been partially published in several sci-entific forums (journals, books, etc.). The most remarkable are for example the acceptance of two papers at the IEEE International Conference on Robotics and Automation 2002, and the publication of an extended article at the Special Issue on web telerobotics of the International Journal on Robotics and Automation (November 2002).
We have proved the worth of the system by means of an application in the Education and Training domain. Almost one hundred undergraduate students have been using the web-based interface in order to program "Pick and Place" operations. The results are really encouraging (refer to Chapter VII) for more details. Although we are referring to the project as "The UJI Online Robot", in the Educa-tion and Training domain "The UJI Telerobotic Training System" term has been used instead.
Further work is planned to focus on applying Remote Visual Servoing techniques in order to improve the actual system performance. This would avoid having to spend long nights calibrating the robot and the cameras, as well extending the system capabilities to work on less structured environments.
APA, Harvard, Vancouver, ISO, and other styles
9

Gilly, de la Sierra-Llamazares Katja. "An adaptive admission control and load balancing algorithm for a QoS-aware Web system." Doctoral thesis, Universitat de les Illes Balears, 2009. http://hdl.handle.net/10803/9413.

Full text
Abstract:
The main objective of this thesis focuses on the design of an adaptive algorithm for admission control and content-aware load balancing for Web traffic. In order to set the context of this work, several reviews are included to introduce the reader in the background concepts of Web load balancing, admission control and the Internet traffic characteristics that may affect the good performance of a Web site.
The admission control and load balancing algorithm described in this thesis manages the distribution of traffic to a Web cluster based on QoS requirements.
The goal of the proposed scheduling algorithm is to avoid situations in which the system provides a lower performance than desired due to servers' congestion. This is achieved through the implementation of forecasting calculations.
Obviously, the increase of the computational cost of the algorithm results in some overhead. This is the reason for designing an adaptive time slot scheduling that sets the execution times of the algorithm depending on the burstiness that is arriving to the system.
Therefore, the predictive scheduling algorithm proposed includes an adaptive overhead control.
Once defined the scheduling of the algorithm, we design the admission control module based on throughput predictions. The results obtained by several throughput predictors are compared and one of them is selected to be included in our algorithm. The utilisation level that the Web servers will have in the near future is also forecasted and reserved for each service depending on the Service Level Agreement (SLA).
Our load balancing strategy is based on a classical policy. Hence, a comparison of several classical load balancing policies is also included in order to know which of them better fits our algorithm. A simulation model has been designed to obtain the results presented in this thesis.
APA, Harvard, Vancouver, ISO, and other styles
10

Mejía, Ronald. "Ejercicios de arquitectura de computadoras." Universidad Peruana de Ciencias Aplicadas - UPC, 2007. http://hdl.handle.net/10757/272761.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Orobitg, Cortada Miquel. "High performance computing on biological sequence alignment." Doctoral thesis, Universitat de Lleida, 2013. http://hdl.handle.net/10803/110930.

Full text
Abstract:
L'Alineament Múltiple de Seqüències (MSA) és una eina molt potent per a aplicacions biològiques importants. Els MSA són computacionalment complexos de calcular, i la majoria de les formulacions porten a problemes d'optimització NP-Hard. Per a dur a terme alineaments de milers de seqüències, nous desafiaments necessiten ser resolts per adaptar els algoritmes a l'era de la computació d'altes prestacions. En aquesta tesi es proposen tres aportacions diferents per resoldre algunes limitacions dels mètodes MSA. La primera proposta consisteix en un algoritme de construcció d'arbres guia per millorar el grau de paral•lelisme, amb la finalitat de resoldre el coll d'ampolla de l'etapa de l'alineament progressiu. La segona proposta consisteix en optimitzar la biblioteca de consistència per millorar el temps d'execució, l'escalabilitat, i poder tractar un major nombre de seqüències. Finalment, proposem Multiples Trees Alignment (MTA), un mètode MSA per alinear en paral•lel múltiples arbres guia, avaluar els alineaments obtinguts i seleccionar el millor com a resultat. Els resultats experimentals han demostrat que MTA millora considerablement la qualitat dels alineaments. El Alineamiento Múltiple de Secuencias (MSA) es una herramienta poderosa para aplicaciones biológicas importantes. Los MSA son computacionalmente complejos de calcular, y la mayoría de las formulaciones llevan a problemas de optimización NP-Hard. Para llevar a cabo alineamientos de miles de secuencias, nuevos desafíos necesitan ser resueltos para adaptar los algoritmos a la era de la computación de altas prestaciones. En esta tesis se proponen tres aportaciones diferentes para resolver algunas limitaciones de los métodos MSA. La primera propuesta consiste en un algoritmo de construcción de árboles guía para mejorar el grado de paralelismo, con el fin de resolver el cuello de botella de la etapa del alineamiento progresivo. La segunda propuesta consiste en optimizar la biblioteca de consistencia para mejorar el tiempo de ejecución, la escalabilidad, y poder tratar un mayor número de secuencias. Finalmente, proponemos Múltiples Trees Alignment (MTA), un método MSA para alinear en paralelo múltiples árboles guía, evaluar los alineamientos obtenidos y seleccionar el mejor como resultado. Los resultados experimentales han demostrado que MTA mejora considerablemente la calidad de los alineamientos. Multiple Sequence Alignment (MSA) is a powerful tool for important biological applications. MSAs are computationally difficult to calculate, and most formulations of the problem lead to NP-Hard optimization problems. To perform large-scale alignments, with thousands of sequences, new challenges need to be resolved to adapt the MSA algorithms to the High-Performance Computing era. In this thesis we propose three different approaches to solve some limitations of main MSA methods. The first proposal consists of a new guide tree construction algorithm to improve the degree of parallelism in order to resolve the bottleneck of the progressive alignment stage. The second proposal consists of optimizing the consistency library, improving the execution time and the scalability of MSA to enable the method to treat more sequences. Finally, we propose Multiple Trees Alignments (MTA), a MSA method to align in parallel multiple guide-trees, evaluate the alignments obtained and select the best one as a result. The experimental results demonstrated that MTA improves considerably the quality of the alignments.
APA, Harvard, Vancouver, ISO, and other styles
12

(UPC), Universidad Peruana de Ciencias Aplicadas. "Arquitectura De Computadoras Y Sistemas Operativos - SI407 201801." Universidad Peruana de Ciencias Aplicadas (UPC), 2018. http://hdl.handle.net/10757/623277.

Full text
Abstract:
El curso de especialidad de Arquitectura de Computadoras y Sistemas Operativos, de las carreras de Ciencias de la Computación(CC), Ingeniería de software(ISW) e Ingeniería de Sistemas de Información (ISI), es de carácter teórico-práctico y está dirigido a los estudiantes del cuarto ciclo para las tres carreras. El curso busca desarrollar la competencia general de Manejo de la Información y la competencia específica de aplicación de conocimientos de ciencias acorde con el ABET-Student Outcome (A). El curso realiza una exploración desde la matemática digital y circuitos digitales hacia las componentes principales de la arquitectura de un computador como procesador (CPU), memoria, buses, GPU, entradas y salidas (E/S). Al mismo tiempo se establece el funcionamiento del sistema operativo y su integración con la memoria real, memoria virtual, procesos, sistemas de archivos, entre otros. Así como también se analizan y aplican los diversos algoritmos matemáticos con que trabajan estos componentes tanto de hardware como de software. Debido a la inclusión de tecnologías emergentes, el curso permite realizar una actualización destacando el cambio generacional hacia los dispositivos móviles, infraestructura de servidores y almacenamiento empresarial, arquitectura ARM (tabletas y celulares), Cloud Computing, entre otros; cubriendo de esta forma la era posterior a la computadora personal (PC), avanzando hacia la informática móvil en la nube.
APA, Harvard, Vancouver, ISO, and other styles
13

Arroyo, Campos Ismael. "Optimization of Display-Wall Aware Applications on Cluster Based Systems." Doctoral thesis, Universitat de Lleida, 2017. http://hdl.handle.net/10803/405579.

Full text
Abstract:
Actualment, els sistemes d'informació i comunicació que treballen amb grans volums de dades requereixen l'ús de plataformes que permetin una representació entenible des del punt de vista de l'usuari. En aquesta tesi s'analitzen les plataformes Cluster Display Wall, usades per a la visualització de dades massives, i es treballa concretament amb la plataforma Liquid Galaxy, desenvolupada per Google. Mitjançant la plataforma Liquid Galaxy, es realitza un estudi de rendiment d'aplicacions de visualització representatives, identificant els aspectes de rendiment més rellevants i els possibles colls d'ampolla. De forma específica, s'estudia amb major profunditat un cas representatiu d'aplicació de visualització, el Google Earth. El comportament del sistema executant Google Earth s'analitza mitjançant diferents tipus de test amb usuaris reals. Per a aquest fi, es defineix una nova mètrica de rendiment, basada en la ratio de visualització, i es valora la usabilitat del sistema mitjançant els atributs tradicionals d'efectivitat, eficiència i satisfacció. Adicionalment, el rendiment del sistema es modela analíticament i es prova la precisió del model comparant-ho amb resultats reals.
Nowadays, information and communication systems that work with a high volume of data require infrastructures that allow an understandable representation of it from the user's point of view. This thesis analyzes the Cluster Display Wall platforms, used to visualized massive amounts of data, and specifically studies the Liquid Galaxy platform, developed by Google. Using the Liquid Galaxy platform, a performance study of representative visualization applications was performed, identifying the most relevant aspects of performance and possible bottlenecks. Specifically, we study in greater depth a representative case of visualization application, Google Earth. The system behavior while running Google Earth was analyzed through different kinds of tests with real users. For this, a new performance metric was defined, based on the visualization ratio, and the usability of the system was assessed through the traditional attributes of effectiveness, efficiency and satisfaction. Additionally, the system performance was analytically modeled and the accuracy of the model was tested by comparing it with actual results.
Actualmente, los sistemas de información y comunicación que trabajan con grandes volúmenes de datos requieren el uso de plataformas que permitan una representación entendible desde el punto de vista del usuario. En esta tesis se analizan las plataformas Cluster Display Wall, usadas para la visualización de datos masivos, y se trabaja en concreto con la plataforma Liquid Galaxy, desarrollada por Google. Mediante la plataforma Liquid Galaxy, se realiza un estudio de rendimiento de aplicaciones de visualización representativas, identificando los aspectos de rendimiento más relevantes y los posibles cuellos de botella. De forma específica, se estudia en mayor profundidad un caso representativo de aplicación de visualización, el Google Earth. El comportamiento del sistema ejecutando Google Earth se analiza mediante diferentes tipos de test con usuarios reales. Para ello se define una nueva métrica de rendimiento, basada en el ratio de visualización, y se valora la usabilidad del sistema mediante los atributos tradicionales de efectividad, eficiencia y satisfacción. Adicionalmente, el rendimiento del sistema se modela analíticamente y se prueba la precisión del modelo comparándolo con resultados reales.
APA, Harvard, Vancouver, ISO, and other styles
14

Lladós, Segura Jordi. "Novel Consistency-based Approaches for Dealing with Large-scale Multiple Sequence Alignments." Doctoral thesis, Universitat de Lleida, 2018. http://hdl.handle.net/10803/663293.

Full text
Abstract:
L'alineament múltiple de seqüències (MSA) ha esdevingut fonamental per tal de realitzar anàlisis de seqüències a l'era de la biologia moderna. Amb l'arribada de les tecnologies de seqüenciació de nova generació d'alt rendiment (NGS), el volum de dades generades pels seqüenciadors s'ha incrementat significativament. Per tant, s'han de definir nous alineadors que puguin treballar a gran escala. No obstant això, la naturalesa heurística dels mètodes MSA juntament amb la complexitat computacional (NP-hard) està alentint l'anàlisi d'alineaments a gran escala que involucren milers de seqüències o fins i tot a genomes complets. A més, la qualitat d'aquests alineaments es veu dràsticament reduïda quan s'incrementa el nombre de seqüències. Els alineadors basats en consistència asseguren mitigar aquest problema mitjançant la inclusió d'informació precalculada (anomenada com a llibreria de consistència) per cada parell de seqüències a tractar a la fase d'alineament. Aquests mètodes son capaços de produir alineaments d'alta qualitat. No obstant això, mantenir aquest gran volum d'informació, que involucra a tots els parells de seqüències, a memòria limita la quantitat de seqüències que es poden tractar simultàniament. L'objectiu d'aquest PhD és l'estudi i proposta de nous mètodes i eines per tal de permetre, als MSA basats en consistència, la capacitat d'escalar processant conjunts de dades molt més grans, millorant el rendiment i la qualitat de l'alineament. El principal obstacle per tal d'aconseguir dita escalabilitat en aquests mètodes són els requisits de recursos de la llibreria (memòria i temps de còmput) els quals creixen quadràticament amb el nombre de seqüències. Al present treball de tesis es proposen dos mètodes per millorar l'escalabilitat: 1) reduir la informació de la llibreria per tal de mantenir-la a memòria; i 2) emmagatzemar les dades de la llibreria a un sistema d'emmagatzemament secundari distribuït, utilitzant els nous paradigmes de Big Data (MapReduce, bases de dades no-sql) i arquitectures (Hadoop) per calcular, mantenir i accedir a la llibreria eficientment. A més de l'enfocament computacional, s'ha desenvolupat una nova funció objectiu secundària que permet incrementar la qualitat de l'alineament final. Els resultats demostren l'efectivitat de les propostes, les quals milloren l'escalabilitat, rendiment i qualitat de T-Coffee, l'eina emprada per validar les diferents propostes.
El alineamiento múltiple de secuencias (MSA) se ha demostrado como fundamental para poder realizar análisis de secuencias en la era de la biología moderna. Con la llegada de las tecnologías de secuenciación de nueva de generación y de altas prestaciones (NGS), el volumen de datos generados por los secuenciadores se ha incrementado significativamente. Por este motivo, es necesario desarrollar alineadores capaces de trabajar a gran escala. No obstante, la naturaleza heurística de los metodos de MSA, juntamente con su complejidad computacional (NP-hard) está retrasando el análisis de alineamientos a gran escala que involucran miles de secuencias o incluso a genomas completos. Además, la calidad de estos alineamientos se ve drásticamente reducida cuando se incrementa el número de secuencias a alinear. Los alineadores basados en consistencia permiten mitigar este problema añadiendo información precalculada (denominada librería de consistencia) para cada par de secuencias a tratar en la fase de alineamiento. Estos métodos son capaces de producir alineamientos de alta calidad. No obstante, almacenar este gran volumen de información, que involucra a todos los pares de secuencias, en memoria limita la cantidad de secuencias que se pueden tratar simultaneamente. El objetivo de este PhD es el estudio y propuesta de nuevos métodos y herramientas que permitan a los MSA basados en consistencia, escalar (procesando un mayor número de secuencias), mejorando el rendimiento y la calidad del alineamiento. El principal obstáculo para lograr dicha escalabilidad en estos métodos son los requisitos de recursos de la librería (memoria y tiempo de cómputo) los cuales crecen cuadráticamente con el número de secuencias. En el presente trabajo de tesis, se proponen dos métodos para mejorar la escalabilidad: 1) reducir la información de la librería para poder así mantenerla en memoria; y 2) almacenar los datos de la librería en un sistema de almacenamiento secundario distribuido, usando los nuevos paradigmas de Big Data (MapReduce, bases de datos no-sql) y arquitecturas (Hadoop) para calcular, almacenar y acceder a la librería eficientemente. Además del enfoque computacional, se ha desarrollado una nueva función objetivo secundaria para incrementar la calidad del alineamiento final. Los resultados demuestran la efectividad de las propuestas, las cuales mejoran la escalabilidad, rendimiento y calidad de T-Coffee, la herramienta utilizada para validar las diferentes propuestas.
Multiple Sequence Alignment (MSA) has become fundamental for performing sequence analysis in modern biology. With the advent of new high-throughput Next Generation Sequencing (NGS) technologies, the volume of data generated by sequencers has increased significantly. Thus, large-scale aligners are required. However, the heuristic nature of MSA methods together with their NP-hard computational complexity is slowing down the analysis of large-scale alignments with thousands of sequences or even whole genomes. Moreover, the accuracy of these methods is being drastically reduced when more sequences are aligned. Consistency methods proven to mitigate such errors add precomputed information (consistency library) for each pairwise to the alignment stage, and are capable of producing high-rated alignments. However, maintaining this whole collection of pairwise information in the memory limits the maximum number of sequences that can be dealt with at once. The objective of this PhD is the study and proposal of new methods and tools to enable scalability for consistency-based MSA aligners, processing bigger datasets, improving their overall performance and the alignment accuracy. The main obstacle to attain scalability on such methods is the library resource requirements (both memory and computing time) that grows quadratically with the number of sequences. Two methods are proposed to improve the scalability: 1) reducing the library information in order to fit it into the memory; and 2) storing the library data in secondary distributed storage, using the new Big Data paradigms (MapReduce, no-sql databases) and architectures (Hadoop) to calculate, store and access the library efficiently. In addition to the computational approaches, we propose an innovative secondary objective function to increase the accuracy of the final alignment. The results demonstrate the effectiveness of the proposals, which improve the scalability, performance and accuracy of T-Coffee, the tool used to validate the different proposals.
APA, Harvard, Vancouver, ISO, and other styles
15

Silva, Bernardo Francisco Peralta Pires da. "Um processador com arquitectura MIPS para ensino." Master's thesis, Universidade de Aveiro, 2008. http://hdl.handle.net/10773/2048.

Full text
Abstract:
Mestrado em Engenharia de Computadores e Telemática
A influência da tecnologia digital é extremamente significativa em campos tão diversos como, por exemplo, o das telecomunicações onde as comunicações digitais adquiriram já uma individualidade própria, ou o do controlo onde os processadores digitais ocupam hoje um lugar indispensável. A rápida evolução sentida na última década nas técnicas digitais, nomeadamente no domínio dos mini e micro-computadores, impõe uma constante reestruturação curricular que permita ir além do âmbito limitado das disciplinas de “Arquitectura de Computadores”, “Sistemas Digitais”, “Computação Reconfigurável” ou “Modelação e Síntese de Computadores”, disciplinas estas leccionadas na Universidade de Aveiro aos cursos de Mestrado Integrado de Engenharia em Computadores e Telemática (MIECT) e Mestrado Integrado em Engenharia de Electrónica e Telecomunicações (MIEET). O conhecimento do funcionamento dos computadores é muito importante para permitir que os estudantes de engenharia compreendam alguns conceitos da área de processamento de informação, a adaptabilidade de diversos algoritmos por simples programação, assim como a modularidade inerente aos sistemas digitais. Nesta dissertação é apresentado um método que irá fazer uso dos conhecimentos adestrados nas disciplinas anteriormente mencionadas, aplicando-os de modo a que a aprendizagem em circuitos digitais, computação reconfigurável e arquitectura de computadores, vá para além do uso de software para simulação de um processador: a implementação real em hardware de um processador de arquitectura MIPS utilizando VHDL. As ferramentas desenvolvidas nesta dissertação possibilitam aos alunos projectar, implementar e executar um processador MIPS Single Cycle de 32 bits na placa DETIUA-S3, que contém como componente central a FPGA Spartan3 XC3S400 da Xilinx. Este documento apresenta as várias etapas da evolução das ferramentas criadas: • A implementação de um processador MIPS Single Cycle utilizando a linguagem de descrição de hardware VHDL; • A evolução de um protocolo de comunicação existente para interacção entre a placa DETIUA-S3 e um computador via USB (Universal Serial Bus), tendo sido efectuadas alterações de modo a que permita o total controlo por software do processador desenvolvido; • Uma aplicação, nomeada de “iCmips 1.0”, que faz uso do protocolo de comunicação implementado possibilitando: o O controlo total do processador MIPS desenvolvido, desde efectuar a execução de ciclos de relógio, reset, leitura e escrita de valores no processador; o Configuração da aplicação mediante a arquitectura do processador implementado, como por exemplo, a dimensão das memórias, número de CPIs (Cycles Per Instruction) necessários, nome, dimensão e número de sinais ligados ao protocolo de comunicação, entre outros; o Configuração do conjunto de instruções MIPS assembly que o processador suporta e um assembler interno capaz de interpretar essas instruções (que não sejam do tipo vírgula flutuante); o Um editor de texto embutido que facilita o carregamento e escrita de programas assembly, sua verificação semântica e sintáctica e conversão em código máquina para posterior envio para as memórias de instruções e/ou dados do rocessador implementado. O principal objectivo desta dissertação é então produzir uma nova ferramenta para ensino que possibilite aos alunos a aprendizagem dos mecanismos envolvidos em computação reconfigurável e arquitectura de computadores de uma forma simples, interactiva e cativante. Os resultados obtidos demonstram a viabilidade e funcionalidade do sistema implementado, mas só com o envolvimento dos alunos na realização de exercícios como o desenvolvimento de alguns dos componentes do processador MIPS Single Cycle de 32 bits, inicialmente ocultados pelo professor, ou mesmo o desenvolvimento completo de novos processadores de arquitectura MIPS fazendo uso das ferramentas criadas para comunicação e depuração, se poderá avaliar as potencialidades e carências do projecto desenvolvido. ABSTRACT: The influence of digital technology is extremely significant in fields as diverse as, for example, the telecommunications where digital communications have already gained own individuality, or the control where the digital processors occupy an indispensable place today. The rapid changes experienced in the last decade in digital techniques, particularly in the field of mini and micro-computers, requires a constant curricula restructuring that allows to go beyond the limited scope of the subjects of "Computer Architecture", "Reconfigurable Digital Systems" or "Processor Synthesis and Modeling", disciplines taught at the University of Aveiro within Computer Engineering curriculum and Electrical Engineering curriculum. The knowledge of computer operations is very important to enable engineering students to understand some concepts of information processing, programming and modularity inherent to digital systems. This dissertation presents a method that will deepen the expertise within the mentioned disciplines, so that the learning goes beyond the use of software for simulation of a processor to the actual implementation in hardware of a MIPS processor architecture using VHDL. The tools developed in this dissertation enable the students to design, implement and execute a MIPS Single Cycle 32-bit processor on the DETIUAS3 board, which contains as a central component the Xilinx Spartan3 XC3S400 FPGA. This document presents the various stages in the development of tools created: • Implementation of MIPS Single Cycle 32-bit processor using VHDL hardware description language; • Evolution of an existing communication protocol for interaction between the DETIUA-S3 board and a host computer via USB (Universal Serial Bus), which suffered modifications to be able to control the developed processor by software; • An application named "iCmips 1.0", which uses the communication protocol and allows the following: o Total control of the developed processor: generation of clock cycles, reset cycles, reading and writing values to the processor; o Configuration of software parameters, such as memory size, number of CPI (cycles per instruction), name, size, and number of signals used in communication protocol, etc., according to the implemented processor architecture; o Configuration of instructions supported by MIPS processor and used by an internal assembler; o A text editor, which facilitates writing assembly language programs, provides for syntactic and semantic code verification, and generates machine code that is further loaded to instruction/data memories of the implemented processor. The main aim of this dissertation is to produce a new tool for education, enabling students to learn the mechanisms involved in “Reconfigurable Digital Systems” and “Computer Architecture” in a simple, interactive and engaging way. The results obtained demonstrate the feasibility and functionality of the implemented system but only with the involvement of students (in conducting exercises such as the development of some components of the MIPS Single Cycle 32-bit processor, initially omitted by the teacher, or even the complete task of developing new MIPS processors architectures using the tools created for communication and debugging), it will be possible to evaluate the strengths and weaknesses of the developed project.
APA, Harvard, Vancouver, ISO, and other styles
16

Borja, Luis Felipe. "Arquitectura de visión y aprendizaje para el reconocimiento de actividades de grupos usando descriptores de movimiento." Doctoral thesis, Universidad de Alicante, 2020. http://hdl.handle.net/10045/111289.

Full text
Abstract:
Según los últimos censos, nuestro planeta tiene cerca de 7.000 millones de habitantes principalmente concentrados en zonas urbanas. Consecuencia de esto las multitudes de personas se congregan en estos sitios, complicando la tarea de supervisión y vigilancia para mantener la seguridad pública en calles, plazas, avenidas y demás. Esto motiva el estudio y mejora de métodos de análisis automático del comportamiento humano. A esta área de investigación se le denomina Análisis del Comportamiento Humano, o Reconocimiento de Actividades Humanas. Gran parte de los trabajos dedicados a este problema se basan en técnicas de visión por computador junto con algoritmos de Machine Learning y, más recientemente, en Deep Learning. En este proyecto de tesis, se ha hecho inicialmente una revisión del estado del arte respecto al tema del análisis y reconocimiento de actividades y comportamientos humanos. En este estudio se han analizado los principales trabajos de machine learning tradicional y deep learning para el tema de la tesis, así como los principales datasets. Se ha visto que no existe un estándar o arquitectura que proponga solución genérica. Por otro lado, la mayoría de trabajos se centran en un determinado rango de individuos, habiendo propuestas para personas individuales, para pequeños grupos, grandes grupos o multitudes. Además, no existe un consenso en la nomenclatura respecto a los grados de complejidad, niveles de comportamiento o, como aquí se denomina, nivel de semántica de las acciones que se realizan. Tras este estudio, se ha propuesto una taxonomía bidimensional que permite clasificar las propuestas en el espacio "número de personas/nivel de semántica", siendo más descriptivo respecto al actual estado del arte y permitiendo ver donde se concentran mayormente los trabajos y cuales los retos aun no resueltos. Tras el estudio del estado del arte, en este trabajo se ha propuesto una arquitectura de visión y aprendizaje para reconocer actividades de grupos usando descriptores de movimiento. Se compone de dos bloques principales, el descriptor de movimiento y el clasificador de actividad. Las arquitecturas de red profunda que se estudian actualmente tienen la bondad de, dados unos datos en crudo (imágenes, secuencias, etc.) tratarlos internamente de forma que devuelvan un resultado, sin necesidad de pre-procesarlos primero. Sin embargo, esto los hace dependientes de los datos de entrenamiento y necesitan grandes datasets para que el entrenamiento sea suficiente. El hecho de introducir un descriptor hace que el espacio de búsqueda se reduzca, y por lo tanto se pueda entrenar con menor número de datos, y además, se pueda independizar la escena (número de individuos, localización de la actividad en el espacio, etc.) del comportamiento en sí. Para el descriptor de la arquitectura se propone en esta tesis como una variante del descriptor Activity Descriptor Vector (ADV), que se denomina D-ADV, y que obtiene dos imágenes del movimiento local acumulado, una UDF (de los movimientos arriba, Up, abajo, Down, y Frecuencia) y otra LRF (de los movimientos Left, izquierda, Right, derecha y Frecuencia). Por otro lado, como instancias de la arquitectura haciendo uso del D-ADV, se proponen el D-ADV-MultiClass para clasificación de múltiples clases. Esta propuesta se basa en utilizar los dos streams UDF y LRF, junto con una red profunda y transfer learning, para reconocer la actividad del grupo. Además, se ha propuesto otra instancia, llamada D-ADV-OneClass, que añade a los dos streams anteriores, otro con información de contexto. Esta última instancia da solución a problemas en los que solo se conoce una clase durante el entrenamiento, y por lo tanto se utilizan técnicas de one-class classification. En la experimentación se ha validado la arquitectura con las dos instancias D-ADV-MultiClass y D-ADV-OneClass utilizando los datasets públicos ampliamente conocidos, como son BEHAVE, INRIA y CAVIAR para multi-class, y para one-class los datasets Ped 1, Ped 2 y Avenue. Los resultados experimentales muestran la capacidad de la arquitectura para clasificar las actividades de los grupos presentados en los datasets. Además, se demuestra que la arquitectura es capaz de tener buenos resultados utilizando datasets con poca cantidad de datos. En este caso, no a partir de la imagen sino de la representación del movimiento. Por último se plantean como trabajos futuros experimentar con otros datasets de mayor tamaño o con otro tipo de datos (peleas callejeras y en rings de boxeo para ver como afecta el contexto en estas situaciones). A medio o largo plazo se realizarán mejoras aumentando y comprobando otras instancias de la arquitectura utilizando múltiples streams de entrada que puedan permitir detectar otros comportamientos.
APA, Harvard, Vancouver, ISO, and other styles
17

Huari, Casas María Rosario. "Revisión sistemática sobre generadores de código fuente y patrones de arquitectura." Master's thesis, Pontificia Universidad Católica del Perú, 2020. http://hdl.handle.net/20.500.12404/16457.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Roque, Vitor Manuel Gomes. "Arquitecturas distribuídas cliente/servidor : CORBA, DCOM e JavaRMI." Master's thesis, Universidade de Aveiro, 1999. http://hdl.handle.net/10773/13036.

Full text
Abstract:
Mestrado em Engenharia Electrónica e Telecomunicações
Na era das comunicações e da multimédia, as Arquitecturas Distribuídas Cliente/Servidor têm vindo a ganhar cada vez mais representatividade no panorama actual do desenvolvimento de aplicações. Verbas avultadas têm sido investidas pelas empresas desenvolventes deste tipo de tecnologia de forma a melhorar o mais possível e no menor espaço de tempo as suas plataformas com o intuito de ganhar a maior representatividade possível na área da computação distribuída. A presente dissertação centra-se precisamente na análise de três das mais importantes arquitecturas distribuídas cliente/servidor disponíveis actualmente no mercado, nomeadamente as arquitecturas CORBA, DCOM e JavaRMI. A escolha destas arquitecturas não foi aleatória e teve como base a sua importância no mercado actual. A primeira - a CORBA - por ser fomentada pelo OMG, organização internacional formada por mais de 800 membros, a segunda - o DCOM - pela importância da empresa que a desenvolve, a Microsoft, devido ao peso desta no mundo da informática e a terceira - a JavaRMI - pela crescente popularidade da linguagem Java. Nesta análise são focados os pontos mais importantes de cada uma das arquitecturas e como é que estes pontos podem ser factores decisivos na escolha das plataformas por parte das organizações. Neste sentido, o segundo capítulo desta dissertação faz uma retrospectiva de tecnologias até se atingir o estado actual, as arquitecturas distribuídas cliente/servidor. Nos terceiro, quarto e quinto capítulos são abordados de forma sucinta as três arquitecturas CORBA, DCOM e JavaRMI respectivamente. No sexto capítulo é apresentada uma comparação das funcionalidades das três arquitecturas no que respeita a: 􀂃 Interoperabilidade. 􀂃 Fiabilidade. 􀂃 Maturidade da Plataforma. Finalmente no sétimo capítulo são apresentadas algumas das conclusões retiradas ao longo desta dissertação.
In the communication and multimedia era, Distributed Client/Server Architectures has come to have more and more representation in the current panorama of application development. Large amounts have been invested by companies that develop this kind of technology in order to improve their platforms as quickly and as much as possible with the objective of gaining as much representation as possible in the area of distributed computation. This dissertation is focussed precisely on the analysis of three of the largest distributed client/server architectures currently available on the market, namely CORBA, DCOM, and JavaRMI. The choice of these architectures was not random but, rather, based on their significance on the current market: the first, CORBA, for being supported by the OMG, an international organization of more than 800 members; the second, DCOM, for the significance of the company that is developing it, Microsoft, due to its weight in the computer world; and the third, JavaRMI, for the increasing popularity of Java language. In this analysis, the most important points of each of the architectures are focussed on, exploring how each of these points can be decisive factors in the choice of platforms on the part of organizations. Accordingly, the second chapter of this dissertation gives a retrospective view of technology up to the current state, distributed client/server architectures. In the third, fourth, and fifth chapters, the three architectures, CORBA, DCOM and JavaRMI, respectively, are dealt with succinctly. In the sixth chapter, a comparison of the functionality of the three architectures is presented with respect to: 􀂃 Interoperability. 􀂃 Reliability. 􀂃 Platform Maturity. Finally, in the seventh chapter, some of the conclusions drawn throughout the dissertation are presented.
APA, Harvard, Vancouver, ISO, and other styles
19

Sánchez, Loayza Ricardo Miguel. "Diseño e implementación del filtro mediano de dos dimensiones para arquitecturas SIMD." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2011. http://tesis.pucp.edu.pe/repositorio/handle/123456789/813.

Full text
Abstract:
El filtro mediano es una de las operaciones básicas en el procesamiento de imágenes digitales, su función es la de eliminar el ruido impulsivo sin alterar la información de la imagen. A pesar de estas características, su uso se ve restringido debido al alto costo computacional del filtro. Las propuestas tradicionales de solución, consisten en disminuir la complejidad del algoritmo del filtro mediano, y en vectorizar los algoritmos existentes. Esta vectorización se realiza al utilizar las unidades SIMD (Single Instruction Multiple Data - Instrucción Única Múltiples Datos) de los procesadores modernos. Ésta les permite realizar una misma operación a un conjunto, o vector, de datos de manera simultánea, con lo que se obtiene un mejor desempeño computacional. En el presente trabajo se implementa el filtro mediano con el algoritmo vectorial propuesto por Kolte [1], el cual aprovecha las ventajas de las unidades SIMD. La eficiencia computacional de la implementación realizada se compara con el algoritmo Filtro Mediano en Tiempo Constante, propuesto recientemente por Perreault [2], el cual presenta una complejidad de O(1). La implementación realizada es 75 y 18.5 veces mas rápida que la implementación de referencia, para áreas de análisis de 3 x 3 y 5 x 5 respectivamente. Se concluye además que la vectorización de un algoritmo no necesariamente obtiene los mismos resultados que un algoritmo diseñado específicamente para ser implementado en unidades vectoriales [3].
Tesis
APA, Harvard, Vancouver, ISO, and other styles
20

Rosales, Jara Erick Daniel. "Implementación de la iteración lanczos en arquitectura CUDA." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/6194.

Full text
Abstract:
Los autovalores y autovectores son elementos muy utilizados en diversos problemas como análisis de estructuras, reconocimiento de imágenes, compresión de datos, solución de problemas electrodinámicos, entre otros. Existen muchos algoritmos para calcular y tratar con autovalores y autovectores mediante el uso de computadoras, sin embargo, cuando solo se requiere uno o unos pocos autovalores (los más significativos) y autovectores, se puede optar por Power Method o la Iteración Lanczos. Por otro lado, factores como la cantidad de información a procesar o la precisión deseada pueden significar tiempos de ejecución no aceptables para ciertas aplicaciones, surgiendo la alternativa de realizar implementaciones paralelas, siendo la arquitectura CUDA una de la mejores opciones actualmente. En la presente tesis se propone diseñar e implementar un algoritmo paralelo para la iteración Lancos en arquitectura CUDA, el cual es un método para el cálculo del mayor autovalor y su correspondiente autovector. La propuesta esta dividia en tres bloques principales. El primer bloque realiza la tridiagonalización parcial de una matriz cuadrada simétrica. El segundo bloque calcula la descomposición de Schur de la matriz tridiagonal obteniendo los autovectores y autovalores de esta. El tercer bloque calcula el mayor autovalor y su correspondiente autovector de la matriz inicial a partir de lo obtenido en etapas anteriores y determinará si es necesario seguir realizando cálculos. Los bloques trabajan iterativamente hasta encontrar resultados que se ajusten a la precisión deseada. Además de la implementación paralela en CUDA, se realizaron implementaciones en el entorno de simulación MATLAB y en lenguaje C secuencial, con el propósito de comparar y verificar una correcta y eficiente implementación paralela. Los resultados computacionales evaluados para una matriz de 4000 _ 4000 elementos reflejan un rendimiento de 13;4 y 5;8 al compararse la implementación en CUDA con MATLAB y C secuencial respectivamente. Estos rendimientos tienden a crecer mientras mayor sea el tamaño de la matriz. La organización de la tesis es: en el primer capítulo se describe la problemática del tema. En el segundo capítulo se explica la teoría correspondiente a Power Method y Lanczos, así como los algoritmos necesarios. En el capítulo tres se exponen conceptos fundamentales sobre arquitectura CUDA. El diseño del algoritmo paralelo se desarrolla en el capítulo cuatro. Finalmente, en el capítulo cinco, se muestran y analizan los resultados computacionales, seguidos de las conclusiones, recomendaciones y bibliografía.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
21

Napoles, Solis Alma Delia. "Análisis documental sobre memorias cache." Tesis de Licenciatura, Universidad Autónoma del Estado de México, 2013. http://hdl.handle.net/20.500.11799/59160.

Full text
Abstract:
Ante la inmensa velocidad de los procesadores que a medida del tiempo se va incrementando, el límite es mayor entre la transferencia de la memoria principal (RAM) y el CPU; ante esto se plantearon soluciones, una incrementar la velocidad de la RAM y otra, quizá la más óptima, agregar un nuevo componente al PC: la memoria caché.
APA, Harvard, Vancouver, ISO, and other styles
22

Ferreira, Nuno Gonçalo Martins. "Mobilidade rápida heterogénea em arquitecturas de redes de próxima geração." Master's thesis, Universidade de Aveiro, 2007. http://hdl.handle.net/10773/1890.

Full text
Abstract:
Mestrado em Engenharia de Computadores e Telemática
Com o crescente aumento do impacto das redes móveis nas vidas dos cidadãos contemporâneos e a explícita necessidade de contacto com a Internet em qualquer lugar, torna-se fundamental encontrar alternativas e mecanismos viáveis que permitam dar resposta a estas necessidades. Assim, julga-se que a resposta passará naturalmente pela introdução do protocolo IP na estrutura lógica das redes de operador de forma a permitir que os terminais móveis possam aceder livremente a qualquer conteúdo e serviços em qualquer lugar e em qualquer momento. Contudo, o facto de integrar uma tecnologia protocolar IP numa rede móvel traz naturalmente sérios problemas visto que este nunca foi concebido para suportar mobilidade de endereçamento entre diferentes redes. Uma das actuais soluções mais proclamadas, e que é neste momento o “standard” para mobilidade IP, é o protocolo Mobile IP. Este protocolo, tanto na sua versão para IPv6 como para IPv4, suporta integralmente o conceito de mobilidade IP e permite que terminais móveis de próxima geração se possam movimentar livremente entre diferentes redes sem perderem as ligações existentes nesse momento. Contudo, o Mobile IP é um protocolo de compromisso, e como tal tem sérios impactos em alguns factores importantes tais como o tempo de handover, a perda de pacotes associada e o Jitter sofrido durante a transmissão dos mesmos. Assim, torna-se importante para os operadores de próxima geração encontrarem novas soluções que permitam suportar a mobilidade rápida de terminais móveis e também obter o menor impacto possível na sua estrutura de rede poupando recursos preciosos. O trabalho realizado nesta dissertação consiste no estudo detalhado dos protocolos de mobilidade existentes actualmente, e como resultado desse estudo foi desenvolvido um novo conceito arquitectural e protocolar para ambientes de mobilidade rápida em redes móveis de próxima geração. O Local-centric Mobility System (LMS) surgiu como resposta a estes problemas e foi desenhado com base em conceitos de mobilidade rápida preditiva, micromobilidade, utilização de multicast para optimização do encaminhamento de pacotes, aplicação de segurança através de mecanismos criptográficos, serviços de controlo AAAC e por fim conceitos existentes nas redes celulares tais como o paging. Como forma de comprovar cientificamente a exequibilidade deste novo conceito foi desenvolvido um protótipo completamente funcional onde se pôde testar o LMS em redes reais sobre condições diversas em ambiente de laboratório. Os resultados dos testes apresentados nesta dissertação comprovam a sua exequibilidade numa rede real mostrando que o LMS poderá ser um ponto inicial para novas descobertas no âmbito da integração da mobilidade IP. Por fim este estudo permitiu ainda a publicação de um artigo científico numa conferência internacional onde foi apresentado à comunidade. ABSTRACT: With the increasing impact of the mobile networks in the contemporaneous citizens and the current “Internet every where” phenomenon, it is fundamental to reach feasible mechanisms and solutions to handle this type of requirements. Thus, the research projects points the integration of Internet Protocol (IP) in the network operator structures as the possible solution for all of these needs. The integration of IP in the network operator structures will provide support of “Internet every where” and also other several services that, at now a days, does not exists. However, the integration of IP technology in the mobile operator networks will raise several problems since the Internet Protocol (IP) was not designed to support address mobility. The current standard solution for IP mobility is the Mobile IP protocol. This protocol allows the mobile terminals to move among the networks without breaking the network connections and established sessions. Nevertheless, the Mobile IP protocol implies blackout experiences and also some service disruption during the handoffs. These problems makes difficult to integrate the Mobile IP protocol in the next generation operator networks. Thus, new solutions for IP mobility in next generation networks are required in order to have seamless and fast handovers during the mobile terminal movements. This master thesis consists in a deep study of current mobility protocols and, as result of this evaluation, a new mobility protocol and a next generation network architecture was architected, developed and evaluated. The developed mobility protocol, Local-centric Mobility System (LMS), was created in order solve the main mobility problems and also to have seamless integration with network operator agents such as AAAC (Access, Accounting, Authorization and Charging) servers. The LMS protocol supports Quality of Service (QoS), security based on cryptographic mechanism and also fast and seamless mobility. The LMS also supports paging and micro-mobility/local-mobility based on the cellular networks concepts. In order to scientifically prove the feasibility of this novel approach, it was developed a complete functional prototype of Local-centric Mobility System (LMS) and it was tested in real conditions in real testbeds. The results of these tests prove that LMS could be able to support several mobile terminals under high mobility scenarios and also have seamless integration with network operator’s requirements. Finally this thesis also results in a scientific publication in an international conference where the LMS was presented to the scientific community.
APA, Harvard, Vancouver, ISO, and other styles
23

Llamoga, Sánchez Eladio. "Sistema multi-agente para la medición de los parámetros de performance de una red de datos." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2009. https://hdl.handle.net/20.500.12672/2381.

Full text
Abstract:
Hoy en día, la utilización de redes de comunicaciones heterogéneas se ha vuelto en un desafío constante, debido a sus complejidades y crecimiento acelerado, tornándose en un factor crítico de sucesos en muchas organizaciones. Durante la última década, diversas arquitecturas de gestión de red han sido desarrolladas y estandarizadas permitiendo el control y monitorización de los diversos indicadores de redes de telecomunicaciones tales como: la utilización de la interfaz, tasa de error, rendimiento y el retardo extremo a extremo, afectando de manera sustancial la calidad de operación de toda red, percibida directamente (p.e en el servicio VoIP) o indirectamente (p.e. capacidad de transferencia de los protocolos de transporte) por los usuarios finales. Todo esto basados en la interconexión de redes de distintas tecnologías, operadas por distintos proveedores y con el paradigma de servicio best-effort. En telecomunicaciones, el término “Calidad de Servicio” o QoS, hace referencia precisamente a las técnicas y procedimientos utilizados para dar un tratamiento preferente a unas clases de tráfico o flujos frente a otras, con el objetivo de cumplir unos requisitos mínimos de performance, identificados por parámetros cuantitativos que deben ser respetados estrictamente para que se logre percibir una adecuada calidad subjetiva por parte de los usuarios, particularmente en las comunicaciones multimediales, lo que da lugar al término “Calidad de Experiencia” o QoE como una nueva forma de valoración de la calidad final ofrecida por las empresas proveedoras de servicio. Con estos antecedentes, la presente investigación explica una nueva forma de calcular estos parámetros, usando un prototipo de aplicación de gestión, de modo que sobre la base de estas mediciones, puedan hacerse los ajustes necesarios dentro de la red y los administradores puedan identificar congestión o potenciales eventos indeseables en la red. De acuerdo a investigaciones bien documentadas sobre este tema, en donde la gestión llegar a ser un factor importante, el paradigma tradicional de arquitectura centralizada es particularmente ineficiente durante periodos de alta congestión, debido al incremento de las interacciones entre la estación central y los dispositivos gestionados. De esta manera, esta investigación pretende suplir en determinada medida esta deficiencia, proponiendo un sistema de gestión de red, basado en agente móviles denominado “AgenteMobilSNMP – AMSNMP” aplicado dentro de un entorno distribuido para llevar a cabo el proceso de gestión y la recolección de los resultados.
--- Nowadays, the use of heterogeneous communications networks has become a constant challenger because of its complexities and accelerated growth, becoming a critical factor in many organizations. During the last decade, many network management architectures have been developed and standardized allowing the control and monitoring of several telecommunications networks indicators such as: the use of the interface, error rate, throughput, and the end-to-end delay, significantly affecting the quality of operation of the whole network, which is perceived directly (e.g. in VoIP service) or indirectly (e.g. transference capacity of the transport protocols) by the end users. All this made through the interconnection of networks of different technologies, operated by different suppliers and generally with the “best-effort” service paradigm. In telecommunications, the term “Quality of Service” or QoS, especially refers to techniques and procedures used to give preferential treatment to some class or traffic flows, over others, to meet minimum standards requirements of performance, identified by quantitative parameters, that must be strictly respected such that a suitable subjective quality is perceived by users, particularly in multimedia communications, where the term “Quality of Experience” or QoE as a new way of valuing the final quality offered by the companies service providers. With this background, the present document explains a new way to calculate these parameters, using a prototype management application so that on the basis of these measurements, adjustments can be made in the network and the administrators can be able to identify congestion trends and potentials undesirable events for the operation of the network. According to well documented researches on this subject, the centralized paradigm used by the traditional SNMP management architecture, among other aspects, where the central station (or management console) obtains the results of each managed station, one at a time, it is too restricted, because the amount of traffic up to this architecture cause, account to its, a proposing management system based on mobile agents called “AgenteMobilSNMP – AMSNMP, applied within a distributed environment, where the agent is transported throughout all the entities to manage in order to carry out the process management and data collection.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
24

Ramón-Fernández, Alberto de. "Modelo basado en monitorización para el empoderamiento en salud. Un enfoque centrado en arquitecturas distribuidas y dispositivos embebidos." Doctoral thesis, Universidad de Alicante, 2019. http://hdl.handle.net/10045/92012.

Full text
Abstract:
La promoción y protección de la salud por parte de las autoridades sanitarias tiene por objetivo fomentar estilos de vida y entornos saludables, reducir los riesgos para la salud y garantizar la atención sanitaria de calidad de todas las personas. Las tecnologías de la información y la comunicación (TIC) tienen un gran potencial para abordar algunos de los desafíos que enfrentan tanto los países desarrollados como aquellos en vías de desarrollo para proporcionar servicios de atención médica accesibles, rentables y de calidad. El trabajo de investigación de esta tesis doctoral plantea el diseño de un modelo basado en monitorización para ayudar al empoderamiento en salud. El objetivo es implementar un modelo que sea lo suficientemente general, para que se pueda adaptar fácilmente a diversas patologías y procesos de atención médica; integral, que permita la adquisición de cualquier variable de información para su monitorización; y flexible, para que pueda ser utilizado en diferentes entornos. Para instanciar este modelo, se ha seguido el paradigma de arquitecturas distribuidas orientadas a servicios (SOA) que proporciona características de interoperabilidad, robustez, independencia, concurrencia, escalabilidad, reusabilidad y tolerancia a fallos. Los resultados obtenidos a lo largo de esta investigación confirman la hipótesis planteada demostrando que los sistemas desarrollados cumplen con las funcionalidades descritas en el modelo y en la arquitectura y han contribuido al desarrollo de los modelos de monitorización enfocados al empoderamiento de los pacientes.
APA, Harvard, Vancouver, ISO, and other styles
25

Sanchez-Romero, Jose-Luis. "Arquitectura de procesadores especializados en cálculo geométrico: aplicación a procesos de fabricación." Doctoral thesis, Universidad de Alicante, 2008. http://hdl.handle.net/10045/24824.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Valenzuela, Gonzales Jorge Luis. "Diseño de una arquitectura de seguridad perimetral de una red de computadoras para una empresa pequeña." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2012. http://tesis.pucp.edu.pe/repositorio/handle/123456789/1448.

Full text
Abstract:
En el trabajo realizado se presenta una solución de seguridad perimétrica que cubra los requerimientos de una red de computadoras de una empresa pequeña. Se muestra además una simulación del diseño propuesto en un ambiente de pruebas controlado. En el primer capítulo se presenta el estado actual y riesgos de la información, y la importancia de la misma. Se presenta además la seguridad perimetral de la red de datos como parte de una problemática mayor. La seguridad de la información. En el segundo capítulo se muestra en detalle y de manera técnica, los riesgos, amenazas contra la integridad de una red de computadoras de una empresa pequeña y las contramedidas que pueden ser adoptadas. En el tercer capítulo se explica el escenario de trabajo, sus requerimientos y sus necesidades sin especificar aun producto alguno, sea software o hardware. En el cuarto capítulo se presentan los criterios que fueron tomados en consideración para la selección de la solución más idónea para el escenario planteado en el tercer capítulo. En el quinto capítulo, se desarrollan la política de seguridad que debe ser aplicada en la solución seleccionada en el cuarto capítulo, se plasma en los componentes que la conforman y se evalúa su desempeño en un ambiente de pruebas. Finalmente se presenta las conclusiones que se desprenden del análisis del escenario planteado, así como las recomendaciones para mantener un nivel de seguridad adecuado.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
27

Angeles, Castro Alan Luis, and Chuquispuma Lenin Einsten Quispe. "Solución tecnológica de integración de sistemas de información de ventas y ERP utilizando una arquitectura SOA-ESB para una empresa de transporte." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2013. https://hdl.handle.net/20.500.12672/11868.

Full text
Abstract:
Expone acerca de una organización dedicada a brindar servicios de trasporte ferroviarios a turistas y públicos. La organización forma parte un grupo de empresas de capitales peruanos Crosland - Inca Rail. La organización actualmente posee un sistema para la planificación de los recursos empresariales (ERP) llamado SAP Bussines Suite, que da soporte a los procesos de finanzas, controlling, logística, ventas y recursos humanos, además cuenta con un sistema legado llamado SAMI (sistema Administrativo Modular Integrado), desarrollado en la tecnología .NET de Microsoft, los cuales interactúan entre sí manualmente, a través de archivos de texto y/o envió de email. La integración actual de las aplicaciones en la organización genera diversos problemas, principalmente retraso en las operaciones debido a la demora en solución de problemas de integración, duplicidad de datos, riesgo alteración de los datos y alto costo de integración de las aplicaciones. El presente informe presenta una propuesta para solucionar este problema que impacta en los procesos operacionales de la empresa, considerando la integración con los otros sistemas de las empresas del grupo y planes de futuras adquisiciones de sistemas. La identificación del problema y los requerimientos de la empresa nos llevó a plantear una solución de integración empresarial, un Bus de Servicios Empresariales (ESB, Enterprise Service Bus). Como alternativas de solución se presenta a dos productos: SAP NetWeaver Process Integration e IBM WebSphere Message Broker para identificar cómo efectivamente uno de ellos puede implementar y soportar una arquitectura orientada a servicios (SOA) y cumplir con la integración empresarial que necesita la organización. Para el producto seleccionado se propone un plan de acción para su propuesta de solución y los criterios de aceptación que deben ser tomados en cuenta para la solución.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO, and other styles
28

Ramos, Fernando Manuel. "Proposta de arquitectura e estudo de desempenho de um ISPBX com comutação de pacotes." Doctoral thesis, Universidade de Aveiro, 1991. http://hdl.handle.net/10773/4384.

Full text
Abstract:
Doutoramento em Engenharia Electrónica e Telecomunicações
Esta Tese apresenta uma proposta de um ISPBX em que é utilizada como subsistema de comutação a arquitectura de comutação de pacotes Pseudo-Estrela, e que tem características invulgares no que respeita a modularidade, eficiência e desempenho. A Tese contempla os aspectos fundamentais relacionados com a concepção do sistema proposto, nomeadamente a sua caracterização funcional, a organização dos diferentes componentes, e a descrição pormenorizada do seu funcionamento em ambiente RDIS, no suporte quer a comunicações em modo circuito quer em modo pacote. São ainda sugeridas alterações complementares às descrições publicadas sobre a Pseudo-Estrela necessárias para a sua utilização como subsistema de comutação de um ISPBX, sendo também apresentado um estudo, por simulação, de desempenho, que permite concluir que o sistema tem, nos cenários considerados, um comportamento satisfatório mesmo em situações de carga elevada. Para além dos assuntos já referidos a Tese inclui ainda uma sistematização do problema da comutação integrada de tráfegos síncronos e assíncronos, que contempla a discussão das caraterísticas dos tráfegos de voz e dados, e, ainda, uma revisão de propostas de sistemas e arquitecturas vocacionadas para a integração de serviços. No final da Tese são discutidas as vantagens conceptuais que o sistema proposto apresenta em relação às soluções descritas. A Tese inclui também um capítulo em que são apresentados os conceitos básicos sobre a RDIS, sendo enquadrado o papel dos ISP8Xs no âmbito da RDIS, e indicado o estado actual da normalização nesta área.
APA, Harvard, Vancouver, ISO, and other styles
29

Fernández, Redondo Mercedes. "Hacia un diseño óptimo de la arquitectura Multilayer Feedforward." Doctoral thesis, Universitat Jaume I, 2001. http://hdl.handle.net/10803/10374.

Full text
Abstract:
El objetivo de esta Tesis Doctoral ha sido básicamente el de realizar un estudio comparativo sobre los diferentes métodos existentes para resolver diversos aspectos referentes al diseño de la arquitectura de red neuronal Multilayer Feedforward, en problemas de clasificación de redes neuronales.
Los aspectos de diseño de la arquitectura de red neuronal estudiados han sido: codificación de entradas desconocidas, selección de la información de entrada a la red, selección del número de unidades ocultas, influencia en la capacidad de generalización del número de capas ocultas e inicialización de pesos de la red.
Para cada uno de los aspectos se ha realizado un estudio comparativo de los diferentes métodos existentes para resolver dicho problema. Como resultado recomendamos finalmente el uso de los mejores métodos a la hora de realizar una aplicación concreta.
The objective of this Doctoral Thesis was to carry a comparative study on several existent methods in order to solve different aspects of the design of Multilayer Feedforward architecture, in neural networks classification problems.
The aspects of design studied were: handling unknown input information, input selection, selection of the number of hidden units, influence in the generalization capability of the number of hidden layers and weight initialization.
For each one of these aspects, we carried out a comparative study of several existent methods in order to solve the problem. We recommend the use of the best methods in order to develop a concrete application.
APA, Harvard, Vancouver, ISO, and other styles
30

Sánchez, Checa Crosato Ivo. "Diseño e implementación del algoritmo de convolución bidimensional en la arquitectura CUDA." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2011. http://tesis.pucp.edu.pe/repositorio/handle/123456789/843.

Full text
Abstract:
En el presente documento se explicarán las consideraciones realizadas para implementar la convolución bidimensional en la arquitectura CUDA. En general se discutirá la metodología seguida y se mostrarán y analizarán los resultados obtenidos. Inicialmente en el Capítulo 1, a manera de introducción, se discutirá la programación en paralelo y los diferentes aspectos a tener en cuenta al desarrollar programas para arquitecturas concurrentes. De esta forma se pretende explicar conceptos importantes que servirán para poner la presente investigación en contexto y comprender mejor los siguientes capítulos. En el Capítulo 2 se describirá a profundidad los aspectos más importantes de la arquitectura CUDA así como la operación de convolución bidimensional. De esta manera se espera dejar claros los conceptos pertinentes. Posteriormente en el Capítulo 3 se explicará la metodología para el desarrollo de los programas realizados, detallándose las diferentes consideraciones para optimizar el desempeño y reducir el tiempo de ejecución de los mismos. Finalmente en el capítulo 4 se mostrarán los tiempos de ejecución obtenidos con los diferentes programas desarrollados. Estos se obtendrán al tomar en cuenta cada una de las optimizaciones mencionadas en el tercer capítulo con lo que se apreciará la mejora de desempeño en cada caso. A continuación se tomará la mejor de las implementaciones realizadas y se comparará con otras existentes para poner los resultados obtenidos en contexto. Por último se presentarán las conclusiones y recomendaciones pertinentes.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
31

Corrente, Gustavo Abdul da Fonseca Ussemane Pires. "Arquitectura de controlo/coordenação de uma equipa de futebol robótico." Master's thesis, Universidade de Aveiro, 2008. http://hdl.handle.net/10773/2030.

Full text
Abstract:
Mestrado em Engenharia de Computadores e Telemática
CAMBADA é a equipa de futebol robótico da Liga de Robôs Médios da Universidade de Aveiro. Esta equipa foi desenvolvida pelo grupo de investigação de Actividade Transversal de Robótica Inteligente (ATRI), pertencente ao Instituto de Electrónica e Investigação da Universidade de Aveiro (IEETA)). Este trabalho pretende especificar e implementar uma arquitectura de controlo e coordenação para os robôs CAMBADA. Esta arquitectura é baseada em comportamentos sendo estes utilizados nos papéis de guarda-redes, de médio e de atacante. Este papéis permitiram um evolução do desempenho da equipa CAMBADA nas competições nacionais e internacionais. Foi desenvolvido ainda um mecanismo de posicionamento estratégico, baseado no Situation Based Strategic Positioning (SBSP) com Dynamic Positioning and Role Exchange (DPRE) da equipa FCPortugal, permitindo maximizar a distribuição dos agente pelo campo. Um treinador, foi implementado com o objectivo de definir as várias posições estratégicas dos agentes CAMBADA. Este trabalho foi implementado e avaliado ao longo de várias competições nacionais (Robótica 2006, Robótica 2007 e Robótica 2008) e internacionais (RoboCup 2006, RoboCup 2007 e RoboCup 2008). Destas participações é de salientar a vitória em dois campeonatos nacionais, o quinto lugar no RoboCup 2007 e a vitória no RoboCup 2008, campeonato do mundo que decorreu em Suzhou, China. ABSTRACT: CAMBADA is a Middle Size League robotic soccer Team from University of Aveiro. This team was developed by ATRI research Group from IEETA. This work pretends to design and implement an architecture of control and coordination for CAMBADA robots. This architecture is based in behaviors, was them used in roles goal-keeper, midfielder and striker. Those roles allowed an evolution in national and international competitions performance. A strategic positioning was developed based on FCPortugal, Situation Based Strategic Positioning (SBSP) with Dynamic Positioning and Role Exchange (DPRE), maximizing the agent distribution in the field. One coach was developed with the objective to define severals strategic positionings of CAMBADA agents. This work was implemented and evaluated along severals national (Robótica 2006, Robótica 2007 and Robótica 2008) and international (RoboCup 2006, RoboCup 2007 and RoboCup 2008) competitions. In those competitions is to acclaim the two victories in national competition, the 5th place in RoboCup 2005 and the victory in the RoboCup 2008, world championship placed in Suzhou, China.
APA, Harvard, Vancouver, ISO, and other styles
32

Domínguez, Montagud Carlos Pascual. "Arquitectura de Agente Emocional para Aplicaciones de Control en Tiempo Real." Doctoral thesis, Universitat Politècnica de València, 2017. http://hdl.handle.net/10251/86223.

Full text
Abstract:
Artificial agents are a technology suitable for solving problems. Agents can perform tasks that their users cannot and/or do not want to accomplish. Agents are systems with a significant degree of autonomy. Even being autonomous in their behavior, they assume the users' goals as their own goals, because there is an agreement between the agent and the user. It is a powerful technology, and the research on this field is very active. As agents are complex systems, it is necessary to define development frameworks that facilitate their conception, design and construction. We name these frameworks, artificial agent architectures. Each architecture is characterized by a few key ideas related to the way the agent represents its knowledge about the world, and how it organizes its behavior. We call these key ideas a paradigm. In this work, an artificial agent's architecture is proposed. In this architecture the organization of the behavior is emotionally driven. It is a bio-inspired architecture. The emotion in this case, however, is a very simplified version of the emotional process in the natural emotional agents. Although other agent architectures based on emotions have been proposed, they have been usually focused on the social skills of the agents, normally to interact with people. This situation could have been caused due to the knowledge we had about the importance of the emotion in the social relations between human beings, when people recognize the internal state of the others, or show their own internal states, and the emotional communication influences their behavior. However, the fundamental role of the emotion in a wide range of cognitive processes is being recognized because of the recent research in psychology and neuroscience. Emotions seem to make an essential contribution in processes such as perception, learning, memory, decision-making and problem solving. Deliberative rational thoughts themselves would be directed by emotions. Given this new view about the emotion, in this thesis, we have investigated the role of the emotions in the cognitive processes of an artificial agent, related them to the general decision making problem, not just the social interaction problem. As an example, in the application considered as a case study in this project, the emotional agent controls a mobile robot platform, in which there is not an important behavior layer of social interaction, and the emotional processes primarily motivate behaviors related to problems in a physical environment, with objects, parts, or areas of operation and navigation. In this thesis, we have defined a specification for the proposed emotional agent architecture, and have discussed the implementation aspects of it.
Los agentes artificiales constituyen una tecnología de apoyo para la resolución de problemas. Un agente es un sistema con un grado significativo de autonomía, lo que le permite descargar a su usuario de tareas que éste no puede o no quiere realizar. Aun siendo autónomo en sus comportamientos, el agente asume los objetivos de su usuario como propios, ya que existe un contrato entre el agente y su representado. Se trata de una tecnología potente y que interesa desarrollar, con lo que el área de investigación en agentes está abierta y hay un esfuerzo continuo para construir agentes con cada vez mejores prestaciones. Siendo los agentes sistemas complejos, resulta necesario definir marcos de desarrollo que permitan concebirlos, diseñarlos y construirlos. Conocemos a estos marcos como arquitecturas de agentes artificiales. Cada una de estas arquitecturas se caracteriza por ciertas ideas clave, relacionadas con la forma en que el agente representa su conocimiento y organiza su comportamiento, en lo que se denomina un paradigma. Sin duda, queda mucho recorrido en este campo - ampliando por ejemplo las áreas de aplicación, o permitiendo funcionalidades adicionales, o aumentando la eficiencia de los procesos implicados, tanto en lo relativo al comportamiento del agente cuando éste está en explotación, como durante el propio proceso de construcción y validación del sistema. En este trabajo se propone una arquitectura de agente artificial en el que la organización del comportamiento está dirigida por un proceso emocional. Se trata de una arquitectura bio-inspirada. La emoción en este caso, sin embargo, es una versión muy simplificada del proceso emocional en los agentes emocionales naturales. Aunque se han definido otras arquitecturas de agentes artificiales basadas en emociones, han sido enfocadas, sobre todo, a construir agentes con habilidades sociales; normalmente para interactuar con las personas. Posiblemente esto ha sido debido a que ya hace mucho que se aceptaba la importancia de la emoción en las relaciones sociales entre los seres humanos; cuando éstos interpretan el estado interno de los demás o expresan su propio estado, alterando con ello sus comportamientos. Sin embargo, el papel fundamental de la emoción en un amplio espectro de procesos cognitivos está siendo reconocido a raíz de la investigación en psicología y neurología. Las emociones parecen contribuir de forma esencial en procesos como la percepción, el aprendizaje, la memoria, la toma de decisiones o la resolución de problemas. El propio pensamiento deliberativo racional estaría dirigido por las emociones. Teniendo en cuenta esta nueva visión de las emociones, en este trabajo se ha investigado el rol de la emoción en los procesos cognitivos de un agente artificial relacionados con la toma de decisiones en general, no sólo en lo relativo a los procesos de interrelación social. Así por ejemplo, en la aplicación considerada como caso de estudio de este trabajo, el agente emocional controla una plataforma de robot móvil de servicio, en la que no hay una capa de comportamiento social importante, y donde los procesos emocionales motivan fundamentalmente los comportamientos relacionados con problemas surgidos en un entorno físico, con objetos, piezas, o espacios de operación y navegación. En esta tesis se define una especificación para la arquitectura de agente emocional artificial propuesta y se discute aspectos de implementación de dicha arquitectura.
Els agents artificials constitueixen una tecnologia de suport per a la resolució de problemes. Un agent és un sistema amb un grau significatiu d'autonomia, el que li permet descarregar al seu usuari de tasques que aquest no pot o no vol fer. Fins i tot sent autònom en els seus comportaments, l'agent assumeix els objectius del seu usuari com a propis, ja que hi ha un contracte entre l'agent i el seu representat. Es tracta d'una tecnologia potent i que interessa desenvolupar, de manera que l'àrea de recerca en agents està oberta i hi ha un esforç continu per construir agents amb cada vegada millors prestacions. Sent els agents sistemes complexos, resulta necessari definir marcs de desenvolupament que puguen permetre concebre'ls, dissenyar-los i construir-los. Coneixem a aquests marcs com arquitectures d'agents artificials. Cadascuna d'aquestes arquitectures es caracteritza per certes idees clau, relacionades amb la forma en què l'agent representa el seu coneixement i organitza el seu comportament, en el que s'anomena un paradigma. Sens dubte, queda molt de recorregut en aquest camp - ampliant les àrees d'aplicació, o permetent funcionalitats addicionals, o augmentant l'eficiència dels processos implicats, tant pel que fa al comportament de l'agent quan aquest està en explotació, com durant el mateix procés de construcció i validació del sistema. En aquest treball es proposa una arquitectura d'agent artificial en què l'organització del comportament està dirigida per un procés emocional. Es tracta d'una arquitectura bio-inspirada. L'emoció en aquest cas, però, és una versió molt simplificada del procés emocional en els agents emocionals naturals. Tot i que s'han definit altres arquitectures d'agents artificials basades en emocions, han estat enfocades, sobretot, a construir agents amb habilitats socials; normalment per interactuar amb les persones. Possiblement això ha segut perquè ja fa molt que s'acceptava la importància de l'emoció en les relacions socials entre els éssers humans; quan aquests interpreten l'estat intern dels altres o expressen el seu propi estat, alterant amb això els seus comportaments. No obstant això, el paper fonamental de l'emoció en un ampli espectre de processos cognitius està sent reconegut arran de la investigació en psicologia i neurologia. Les emocions semblen contribuir de forma essencial en processos com la percepció, l'aprenentatge, la memòria, la presa de decisions o la resolució de problemes. El mateix pensament deliberatiu racional estaria dirigit per les emocions. Tenint en compte aquesta nova visió de les emocions, en aquest treball s'ha investigat el paper de l'emoció en els processos cognitius d'un agent artificial relacionats amb la presa de decisions en general, no només pel que fa als processos d'interrelació social. Així per exemple, en l'aplicació considerada com a cas d'estudi d'aquest treball, l'agent emocional controla una plataforma de robot mòbil de servei, en què no hi ha una capa de comportament social important, i on els processos emocionals motiven fonamentalment els comportaments relacionats amb problemes sorgits en un entorn físic, amb objectes, peces, o espais d'operació i navegació. En aquesta tesi es defineix una especificació per a l'arquitectura d'agent emocional artificial proposta i es discuteixen aspectes d'implementació de la arquitectura.
Domínguez Montagud, CP. (2017). Arquitectura de Agente Emocional para Aplicaciones de Control en Tiempo Real [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/86223
TESIS
APA, Harvard, Vancouver, ISO, and other styles
33

Fonseca, Arroyo Pablo Alejandro. "Desarrollo de un framework web para el envío remoto de tareas, monitoreo y recuperación de resultados para Desktop Grids usando una arquitectura orientada a servicios: caso Boinc." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2014. http://tesis.pucp.edu.pe/repositorio/handle/123456789/5337.

Full text
Abstract:
Hoy en día los científicos necesitan de aplicaciones de cómputo para realizar cálculos, validar modelos matemáticos o hacer simulaciones; requiriendo para esto del procesamiento de un gran volumen de datos. En ocasiones, los requerimientos computacionales para realizar estas tareas exceden las prestaciones que les puede brindar una computadora personal. En vista de esto, es necesario contar con una infraestructura de mayor escala, la cual permita realizar cálculos intensivos.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
34

Mestre, Nuno Roberto Pereira. "Comparação do desempenho do FDTD com implementação em CPU e em GPU." Master's thesis, Universidade de Aveiro, 2012. http://hdl.handle.net/10773/10939.

Full text
Abstract:
Mestrado em Engenharia de Computadores e Telemática
O Finite-Difference Time-Domain é um método utilizado em electromagnetismo computacional para simular a propagação de ondas electromagnéticas em meios cujas características podem não ser uniformes. É um método com inúmeras aplicações, e como tal é vantajoso que o seu desempenho possa ser aumentado, de preferência recorrendo a sistemas computacionais de baixo custo. O propósito desta dissertação é aproveitar duas tecnologias emergentes e de relativo baixo custo para aumentar o desempenho do FDTD em uma e duas dimensões. Essas tecnologias são sistemas com processadores Multi-Core e placas gráficas que permitem utilizar as suas características de processamento massivamente paralelo para a execução de código de propósito geral. Para explorar as capacidades de um sistema com processador Multi-Core, o algoritmo originalmente sequencial foi alterado de modo a ser executado em múltiplas threads. Por sua vez, para tirar partido da tecnologia CUDA, o algoritmo foi convertido de forma a ser executado num GPU. Os acréscimos de desempenho obtidos indicam que é vantajoso o uso destas tecnologias comparativamente com implementações puramente sequenciais.
The Finite-Difference Time-Domain is a method used in computational electromagnetics to simulate the propagation of electromagnetic waves in fields that might not have uniform characteristics. It is a method with countless applications and so it is advantageous to increase its performance, preferably using low cost computer systems. The purpose of this thesis is to make use of two relatively low-cost emerging technologies to increase the FDTD performance in one and two dimensions. These technologies are Multi-Core systems and graphics cards that allow the use of its massive parallel processing characteristics to run general purpose code. To make use of a Multi-Core system, the original sequential code was changed to be executed by multiple threads. In order to use the CUDA technology, the algorithm was converted so that it could be executed on the GPU. The performance increase shows that the use of these technologies is advantageous in comparison to pure sequential implementations.
APA, Harvard, Vancouver, ISO, and other styles
35

Valente, Frederico Miguel Goulão. "Static analysis on embedded heterogeneous multiprocessor systems." Master's thesis, Universidade de Aveiro, 2008. http://hdl.handle.net/10773/2180.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Cachim, Luís Miguel Barreto. "Análise de Implementações de Qualidade de Serviço em Redes IP." Master's thesis, Universidade de Aveiro, 2002. http://hdl.handle.net/10773/23116.

Full text
Abstract:
Mestrado em Engenharia Electrónica e Telecomunicações
O presente trabalho propõe-se divulgar as mais significativas técnicas de qualidade de serviço utilizadas em redes IP nos dias de hoje, bem como analisar as funcionalidades de alguns produtos da área existentes no mercado. O documento é composto por uma abordagem às principais arquitecturas utilizadas nestes tipo de redes, seguido de uma apresentação de alguns produtos existentes no mercado, uma exposição sobre um trabalho prático realizado com o objectivo de verificar o funcionamento de dispositivos de rede quando funcionam com algumas das tecnologias abordadas neste trabalho e termina com um capítulo de conclusões. No primeiro capítulo fala-se da motivação e objectivos do trabalho, do enquadramento, da metodologia utilizada e da estrutura deste documento. No segundo capítulo faz-se uma abordagem à arquitectura dos serviços integrados e ao RSVP, à arquitectura dos serviços diferenciados, ao MPLS e à norma IEEE802.1p. No terceiro capítulo analisam-se as capacidades de qualidade de serviço em IP do IOS da Cisco Systems, analisa-se o Envio Baseado em Classes da Lucent Technologies, analisam-se produtos dos fabricantes IBM, Fujitsu, Unisphere Networks, Enterasys, Juniper Networks e NEC. Neste capítulo são abordadas as ferramentas de gestão de qualidade de serviço QOS Policy Manager e QOS Device Manager da Cisco Systems. No quarto capítulo é apresentada a descrição de um trabalho prático realizado com IOS para verificação do funcionamento de alguns mecanismos analisados. No quinto capítulo são apresentadas as conclusões deste trabalho. São ainda apresentados três apêndices. O primeiro explica a norma IEEE802.1Q. O segundo são duas tabelas comparativas dos métodos de envio do IOS. O terceiro é um glossário de termos utilizados na arquitectura dos serviços diferenciados.
This work presents the most significant Quality of Service (QoS) technologies used on today´s IP networks and an analysis of technical QoS features of existing products. In this book there is one section dedicated to the main QOS architectures used today in this kind of networks, followed by a presentation of some existing products with QoS capabilities, another section in which it is described the practical work carried on to better understand the presented technologies. It finishes with a section on conclusions. In the first chapter it is exposed the motivation, objectives, how it fits in today’s world, the methodology used and the structure of this work. In the second chapter it is exposed the Integrated Services Architecture and RSVP, the Differentiated Services Architecture, the integration of these two architectures, the MPLS and IEEE 802.1p part of IEEE802.1D standard. In the third chapter several quality of service features of existing products are analysed. These products are the Cisco Systems IOS, Lucent Technologies AccessPoint Class Based Queueing, IBM’s MRS, Nortel switches, Fujitsu routers, Unisphere Networks, Enterasys, Juniper Networks and NEC. Also in this chapter the quality of service management tools Cisco QOS Policy Manager and Cisco QOS Device Manager are introduced. In the fourth chapter it is presented the description of a laboratory session where Cisco Systems IOS was used for the verification of some of the QOS mechanisms presented in the third chapter. In the fifth chapter the conclusions are exposed. Three appendixes are presented. The first explains the IEEE802.1Q standard. The second are two tables for comparing the forwarding mechanisms of IOS. The third is a glossary of differentiated services architecture terms. The book finishes with a references list.
APA, Harvard, Vancouver, ISO, and other styles
37

Corujo, Daniel Nunes. "IEEE 802.21 in heterogeneous handover environments." Master's thesis, Universidade de Aveiro, 2007. http://hdl.handle.net/10773/1913.

Full text
Abstract:
Mestrado em Engenharia de Computadores e Telemática
O desenvolvimento das capacidades tecnológicas dos terminais móveis, e das infra-estruturas que os suportam, potenciam novos cenários onde estes dispositivos munidos com interfaces de diferentes tecnologias vagueiam entre diferentes ambientes de conectividade. É assim necessário providenciar meios que facilitem a gestão de mobilidade, permitindo ao terminal ligar-se da melhor forma (i.e., optando pela melhor tecnologia) em qualquer altura. A norma IEEE 802.21 está a ser desenvolvida pelo Institute of Electrical and Electronics Engineers (IEEE) com o intuito de providenciar mecanismos e serviços que facilitem e optimizem handovers de forma independente da tecnologia. A norma 802.21 especifica assim um conjunto de mecanismos que potenciarão cenários como o descrito acima, tendo em conta a motivação e requerimentos apresentados por arquitecturas de redes futuras, como as redes de quarta geração (4G). Esta dissertação apresenta uma análise extensiva da norma IEEE 802.21, introduzindo um conjunto de simulações desenvolvidas para estudar o impacto da utilização de mecanismos 802.21 em handovers controlados por rede, numa rede de acesso mista composta por tecnologias 802.11 e 3G. Os resultados obtidos permitiram verificar a aplicabilidade destes conceitos a ambientes de próxima geração, motivando também uma descrição do desenho de integração de mecanismos 802.21 a arquitecturas de redes de quarta geração. ABSTRACT: The development of the technological capabilities of mobile terminals, and the infra-structures that support them, enable new scenarios where these devices using different technology interfaces roam in different connectivity environments. This creates a need for providing the means that facilitate mobility management, allowing the terminal to connect in the best way possible (i.e., by choosing the best technology) at any time. The IEEE 802.21 standard is being developed by the Institute of Electrical and Electronics Engineers (IEEE) to provide mechanisms and services supporting Media Independent Handovers. The 802.21 standard specifies a set of mechanisms that enable scenarios like the one described above, considering the motivation and requirements presented by future network architectures, such as the ones from fourth generation networks (4G). This thesis presents an extensive analysis of the IEEE 802.21 standard, introducing a set of simulations developed for studying the impact of using 802.21 mechanisms in network controlled handovers, in a mixed access network composed of 802.11 and 3G technologies. The obtained results allow the verification of the applicability of these concepts into next generation environments, also motivating the description of the design for integration of 802.21 mechanisms to fourth generation networks.
APA, Harvard, Vancouver, ISO, and other styles
38

Supo, Orihuela Luis Alberto. "Customizacion del Open Source Openbravo ERP en una Pyme comercializadora del Perú: Proceso de compras y ventas." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2013. https://hdl.handle.net/20.500.12672/9599.

Full text
Abstract:
Publicación a texto completo no autorizada por el autor
Identifica y adapta una herramienta Enterprise Resource Planning (ERP) Open Source a una PYME del sector comercial para que brinde apoyo a los procesos de compras y ventas; la investigación se centra en las PYMES debido a la importancia que poseen actualmente estas ya que representan más del 98% de todas las empresas existentes en el Perú, creando empleo alrededor del 75% de la Población Económicamente Activa (PEA) y genera riqueza en más de 45% del Producto Bruto Interno (PBI). La investigación se centra en la identificación de la herramienta ERP Open Source más adecuada para que luego en conjunto con la identificación de un conjunto de requerimientos comunes dentro de una PYME del sector comercial adaptarla para que se constituya en una potente herramienta dentro de la gestión de la empresa, para hacer esto posible se hará uso de la metodología que propone el ERP seleccionado teniendo en cuenta ciertas modificaciones que vayan de acuerdo al enfoque del estudio. Además se pretende también lograr que todo el soporte tecnológico que conlleve el uso de un ERP esté basada en software libre. Finalmente se espera que al finalizar la investigación se obtenga una herramienta ERP que apoye de manera adecuada a cualquier PYME peruana del sector comercial en los procesos de compras y ventas.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO, and other styles
39

Pinto, Joaquim de Sousa. "Arquitectura para um sistema colaborativo baseado em ferramentas hipermédia." Doctoral thesis, Universidade de Aveiro, 1997. http://hdl.handle.net/10773/4406.

Full text
Abstract:
Doutoramento em Engenharia Electrotécnica
Esta tese reflecte a expenencia acumulada ao longo dos anos no trabalho desenvolvido no Departamento de Electrónica e Telecomunicações da Universidade de Aveiro com a participação em diversos projectos nacionais e europeus nas áreas da hipermédia e do trabalho colaborativo suportado por computador. Descreve o processo de desenho e implementação de um sistema colaborativo baseado em ferramentas replicadas hipermédia. Para suporte da colaboração foi desenvolvido um protocolo de comunicações baseado em ligações multiponto TCP /IP. Uma das características deste sistema reside na equidade entre todas as estações de trabalho, não havendo portanto lugar para um servidor centralizado para o controlo da colaboração. Por cima do protocolo de comunicações para groupware foi desenvolvido um aplicativo encarregue de estabelecer e manter a relação entre um grupo de pessoas a trabalhar em conjunto, o "Gestor de Conferências", tendo como metáfora agregadora a "conferência". Esse aplicativo suporta diversos cenários de conferência, associados com diferentes modos de colaboração. Os cenários de colaboração vão desde a edição colaborativa de documentos hipermédia até à mera interacção social, passando pelos cenários típicos de ensino, como a aula teórica e o estudo em grupo. Para além das sessões de interacção social ou casual pretendeu-se proporcionar aos seus utilizadores facilidades de criação, utilização, alteração e anotação de material hipermédia quer de modo individual quer em grupo. Para o manuseamento e anotação do material hipermédia desenvolveu-se uma ferramenta, denominada "Apresentador colaborativo de documentos hipermédia" que, para além de apresentar o material hipermédia, permite também que as acções executadas por um utilizador numa estação de trabalho sejam reflectidas nas demais que constituem o grupo. Para a edição e alteração do material hipermédia foi desenvolvida uma ferramenta de edição denominada "Compositor colaborativo de documentos hipermédia". Para suporte aos diversos cenários foram ainda desenvolvidas ferramentas complementares, como o "Cochicho" - destinado à troca de mensagens entre utilizadores ou grupos de utilizadores - e a "Urna de Voto" - destinada à apresentação e votação de propostas. De modo a permitir aos utilizadores do sistema a utilização de ferramentas preexistentes, foi desenvolvido um módulo que permite a ligação de qualquer aplicação monoutilizador ao sistema colaborativo tornando-a desse modo numa ferramenta colaborativa.
APA, Harvard, Vancouver, ISO, and other styles
40

Petit, Martí Salvador Vicente. "Efficient Home-Based protocols for reducing asynchronous communication in shared virtual memory systems." Doctoral thesis, Universitat Politècnica de València, 2008. http://hdl.handle.net/10251/2908.

Full text
Abstract:
En la presente tesis se realiza una evaluación exhaustiva de ls Sistemas de Memoria Distribuida conocidos como Sistemas de Memoria Virtual Compartida. Este tipo de sistemas posee características que los hacen especialmente atractivos, como son su relativo bajo costo, alta portabilidad y paradigma de progración de memoria compartida. La evaluación consta de dos partes. En la primera se detallan las bases de diseño y el estado del arte de la investigación sobre este tipo de sistemas. En la segunda, se estudia el comportamiento de un conjunto representativo de cargas paralelas respecto a tres ejes de caracterización estrechamente relacionados con las prestaciones en estos sistemas. Mientras que la primera parte apunta la hipótesis de que la comunicación asíncrona es una de las principales causas de pérdida de prestaciones en los Sistemas de Memoria Virtual Compartida, la segunda no sólo la confirma, sino que ofrece un detallado análisis de las cargas del que se obteiene información sobre la potencial comunicación asíncrona atendiendo a diferentes parámetros del sistema. El resultado de la evaluación se utiliza para proponer dos nuevos protocolos para el funcionamiento de estos sistemas que utiliza un mínimo de recursos de hardware, alcanzando prestaciones similares e incluso superiores en algunos casos a sistemas que utilizan circuitos hardware de propósito específico para reducir la comunicación asíncrona. En particular, uno de los protocolos propuestos es comparado con una reconocida técnica hardware para reducir la comunicación asíncrona, obteniendo resultados satisfactorios y complementarios a la técnica comparada. Todos los modelos y técnicas usados en este trabajo han sido implementados y evalados utilizando un nuevo entorno de simulación desarollado en el contexto de este trabajo.
Petit Martí, SV. (2003). Efficient Home-Based protocols for reducing asynchronous communication in shared virtual memory systems [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2908
Palancia
APA, Harvard, Vancouver, ISO, and other styles
41

Baraza, Calvo Juan Carlos. "Contribución a la validación de sistemas complejos tolerantes a fallos en la fase de diseño. Nuevos modelos de fallos y técnicas de inyección de fallos." Doctoral thesis, Universitat Politècnica de València, 2008. http://hdl.handle.net/10251/2345.

Full text
Abstract:
En el diseño de sistemas informáticos (y en particular, de aquéllos en los que, por las características del servicio que prestan, un mal funcionamiento puede provocar pérdida de vidas humanas, perjuicio económico, suspensión de servicios primordiales, etc.), se establece como prioridad esencial conseguir que funcionen correctamente durante el mayor tiempo posible y con un elevado nivel de eficacia. Los sistemas que regulan servicios críticos disponen de unos mecanismos especiales que les proporcionan una cierta inmunidad a la ocurrencia de averías que puedan causar un cese o deterioro del servicio prestado. Por ello, se les denomina Sistemas Tolerantes a Fallos, o STF. Se define el concepto de Confiabilidad como un conjunto de funciones (o atributos) que permiten cuantificar la calidad del servicio prestado en cuanto a averías producidas, y en consecuencia, el grado de confianza que el usuario puede depositar en el sistema. Al desarrollar cualquier sistema tolerante a fallos es preciso validarlo, o lo que es lo mismo, cuantificar sus parámetros de Confiabilidad. Entre los numerosos métodos y técnicas existentes para validar sistemas tolerantes a fallos, esta tesis se ha centrado en un método de validación experimental: las técnicas de inyección de fallos basadas en la simulación de modelos en VHDL. Las principales ventajas de este conjunto de técnicas son que se pueden aplicar en la fase de diseño del sistema y que permiten acceder a cualquier elemento del modelo del sistema. Por contra, presentan el inconveniente de que, sobre todo en modelos de sistemas complejos, la inyección de los fallos supone un elevado coste temporal. Sin embargo, sus importantes ventajas las hacen lo suficientemente atractivas como para ser utilizadas al menos como técnica complementaria de otras más utilizadas por su bajo coste y sencillez de implementación, como SWIFI (software implemented fault injection). Un aspecto muy importante de las técnicas de inyección de fallos mediante simulaci
Baraza Calvo, JC. (2003). Contribución a la validación de sistemas complejos tolerantes a fallos en la fase de diseño. Nuevos modelos de fallos y técnicas de inyección de fallos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2345
Palancia
APA, Harvard, Vancouver, ISO, and other styles
42

Quispe, Yalle Albert Gustavo. "Una investigación sobre arquitecturas que soportan la composición de servicios web semánticos: una revisión sistemática." Master's thesis, Pontificia Universidad Católica del Perú, 2018. http://hdl.handle.net/20.500.12404/16459.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Dias, João Gonçalo Gomes de Paiva. "Arquitectura de suporte à integração de serviços no governo electrónico." Doctoral thesis, Universidade de Aveiro, 2006. http://hdl.handle.net/10773/8967.

Full text
Abstract:
Doutoramento em Engenharia Informática
O governo electrónico, além de permitir a prestação de serviços em linha, encerra também um enorme potencial para integrar, do ponto de vista dos clientes, os serviços dispersos da administração pública. Assim, em tese, ele pode contribuir para centrar a administração pública nas necessidades dos cidadãos e das empresas, respondendo a um dos principais desafios introduzidos pelos novos modelos de gestão pública. Nesta dissertação justificamos, definimos, discutimos e validamos uma nova arquitectura de suporte à integração de serviços no governo electrónico. Trata-se de uma arquitectura versátil, segura e baseada em tecnologias normalizadas e facilmente disponíveis, que suporta a implementação de pontos únicos de acesso, de prestadores concorrentes, de múltiplos canais de atendimento e da organização por eventos da vida. Acessoriamente, fazemos uma revisão bibliográfica das áreas da sociedade da informação e do governo electrónico, identificamos as tecnologias e arquitecturas mais relevantes na área da integração de serviços e apresentamos um estudo de caso que inclui o levantamento de processos de uma câmara municipal e a sua simulação usando um protótipo que respeita a arquitectura definida.
Besides allowing on-line delivery of the services, electronic government also promises to integrate these services from the client perspective. Thus, in thesis, it can contribute to the development of a client-centred approach in government, answering to one of the main challenges of the New Public Management movements. In this dissertation a new architecture that supports the integration of services in the scope of electronic government is justified, defined, presented, discussed, and validated. The proposed architecture is versatile, secure, and based on normalized and easily available technologies. It supports the implementation of single access points, concurrent providers, channel integration, and life events. Additionally, the areas of the information society and electronic government are revised, the main technologies and architectures for service integration are identified, and a case study is presented. The case study includes analysis of processes in a local government institution and its simulation using a prototype that implements the defined architecture.
APA, Harvard, Vancouver, ISO, and other styles
44

Campos, Maldonado Javier Orlando. "Revisión sistemática de estudios realizados sobre comparaciones de los métodos de estimación de tamaño funcional IFPUG FPA y COSMIC sobre proyectos SOA." Master's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/6520.

Full text
Abstract:
En la Ingeniería de Software, la estimación de proyectos es considerado un tema importante pues ayuda a la mejora del desarrollo del proyecto. Dentro de las diversas variables a estimar, tres son las más relevantes: el tamaño del software, el esfuerzo y el cronograma. Como la estimación de costos radica básicamente en estimar el tamaño de software así como la cantidad de personas necesarias para desarrollar el producto, se ha decidido centrar el estudio en la estimación del tamaño del software. Ahora, el tamaño de software puede ser cuantificado usando diferentes técnicas, como las líneas de código y los métodos de medición de tamaño funcional, etc. Nosotros nos centraremos en analizar los métodos IFPUG FPA y COSMIC. Por esta razón, la presente tesis presentará una revisión sistemática de estudios realizados sobre comparaciones de los métodos de estimación de tamaño funcional IFPUG FPA y COSMIC sobre proyectos SOA. El objetivo será el poder encontrar y analizar los diferentes trabajos que se han realizado para adaptar los métodos de estimación de tamaño funcional IFPUG FPA y COSMIC sobre proyectos SOA. Para lograr ello, se ha desarrollado esta tesis en seis capítulos. En el primero, se plantean las definiciones de los métodos de estimación IFPUG FPA y COSMIC, y el concepto SOA. En el segundo, se incluye la definición de una revisión sistemática así como los trabajos realizados de revisiones sistemáticas aplicadas a proyectos SOA. En el tercero, se presenta la planificación de la aplicación de la revisión sistemática donde se incluyen el desarrollo del protocolo, la formulación de las preguntas de investigación y la estrategia para la búsqueda. En el cuarto, se presenta la aplicación de la revisión sistemática. En el quinto, se presentan los resultados de la revisión, y en el último capítulo se incluyen las conclusiones y los trabajos futuros.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
45

Almeida, Nuno Filipe dos Reis. "Control agent architecture of a simulated humanoid robot." Master's thesis, Universidade de Aveiro, 2008. http://hdl.handle.net/10773/2181.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Serra, Carlos David Alexandre. "Análise e implementação de ordenação de dados em FPGA." Master's thesis, Universidade de Aveiro, 2010. http://hdl.handle.net/10773/4484.

Full text
Abstract:
Mestrado em Engenharia Electrónica e Telecomunicações
Desde os primórdios da computação que os algoritmos de ordenação têm sido investigados. Estes podem ser baseados em diferentes tipos de estruturas de dados. A sua implementação num dado sistema permite um acesso mais eficaz aos dados armazenados em memória. O aumento da capacidade de processamento da FPGA (Field Programmable Gate Arrays) torna possível a implementação de algoritmos de ordenação que actuem sobre listas de dados de tamanho razoável. Nesta tese foi desenvolvida uma aplicação de software, assim como um circuito a ser implementado em FPGA, que permitem realizar a transferência de 1024 dados do sistema computacional de uso geral para a FPGA, através de ligação USB. Os dados enviados possuem 16 bits, com gama de valores entre 0 e 65535 e são criados pela aplicação de software desenvolvida. Os dados são ordenados na FPGA e no sistema computacional de uso geral usando a estrutura de dados árvore binária. Posteriormente visualizam-se estes valores e o tempo necessário para os ordenar, tanto no monitor, ligado à placa com FPGA, como na consola do computador de uso geral. No final, é comparado o tempo necessário para ordenar nos dois sistemas. A FPGA utilizada foi a Spartan-3E, da Xilinx®.
Sorting algorithms have been investigated since the beginning of computing era. Their implementation in a system optimizes the process of data access. These algorithms may be based on different kinds of data structures. The increase of the processing capacity of FPGA (Field Programmable Gate Arrays) allows for the implementation of sorting algorithms that act upon data lists of considerable size. In this thesis, a software application and a circuit to be implemented in an FPGA were developed, which allow for the transfer of 1024 data values from the general purpose computer system to the FPGA, via USB interface. The values sent possess 16 bits, ranging from 0 to 65535 and are created by the developed software application. The data were sorted using the binary tree data structure both in software and in the FPGA. The sorted results were presented on a VGA monitor screen connected to the FPGA board and in the console output of the developed application. The respective sorting time, calculated both in software and in the FPGA, were compared and analyzed. An FPGA of Spartan-3E family of Xilinx was used as a hardware platform.
APA, Harvard, Vancouver, ISO, and other styles
47

Sarrô, Rafael Figueiredo. "Avaliação de desempenho e mobilidade em redes auto-organizadas." Master's thesis, Universidade de Aveiro, 2007. http://hdl.handle.net/10773/1914.

Full text
Abstract:
Mestrado em Engenharia de Computadores e Telemática
As redes móveis ad hoc (ou auto-organizadas) são um assunto que nos últimos anos tem ganho muita atenção da comunidade científica. Os problemas associados a este tipo de redes foram amplamente estudados e expostos, foram propostas soluções, e algumas até foram tornadas um padrão da indústria. No entanto, a grande maioria do trabalho realizado, é dedicado a resolver só um problema de cada vez. Da mesma forma, as soluções que são testadas por forma a verificar a sua validade, muitas das vezes, são testadas recorrendo a trabalho de simulação. Uma parte do trabalho que é apresentado nesta dissertação de mestrado, junta uma série de protocolos desenvolvidos para redes ad hoc, os quais providenciam funcionalidades como: auto configuração, encaminhamento unicast e multicast, qualidade de serviço e taxação com incentivos numa única solução integrada que interliga as redes ad hoc a redes infra-estruturadas funcionando como uma extensão das mesmas. O demonstrador criado é avaliado de forma experimental, e os resultados obtidos são apresentados e discutidos. Uma vez que a rede ad hoc está interligada à rede infra-estruturada, num ambiente de quarta geração, é também apresentada uma arquitectura que suporta mobilidade de nós entre redes ad hoc e as redes infra-estuturadas que fazem parte do ambiente heterogéneo, e de este para as redes ad hoc é apresentada. A rede geral onde a rede ad hoc é integrada suporta novas tecnologias e tendências em gestão de mobilidade, tais como o protocolo em desenvolvimento IEEE 802.21 Media Independent Handover e gestão de mobilidade baseada em Domínios de Mobilidade Local. A forma como a rede ad hoc se integra com as tecnologias presentes na rede infra-estruturada, e como as especificidades da rede ad hoc são escondidas, é descrita e explicada. ABSTRACT: Mobile Ad hoc network is a subject that has gained lots of attention from the research community in recent years. The problems inherent to this types of networks have been studied and exposed, solutions have been created and even standardized. However, the vast majority of the work performed is dedicated to only one problem at the time. In addition, the tests performed to validate the produced solutions are, most of the times, obtained through simulation work. The work presented in this thesis gathers together a set of ad hoc protocols, providing functionalities such as auto-configuration, unicast and multicast routing, quality of service and charging and rewarding in one integrated testbed, serving as a stub network in a hotspot scenario. A experimental evaluation is performed, and results are presented and discussed. Additionally, since the network belongs to a hotspot of fourth generation, a architecture that supports mobility of nodes between the ad hoc network and infrastructure networks is presented. The general network that includes ad hoc network integrates and supports the new technologies and tendencies in mobility management, such as the IEEE 802.21 Media Independent Handover and mobility management based on Local Mobility Domains. The way the MANET fully integrates with the infrastructure network, and how the ad hoc networks specific characteristics are hidden, is also presented and explained.
APA, Harvard, Vancouver, ISO, and other styles
48

González, Férez María Pilar. "Simulación concurrente y elección dinámica de estrategias para la mejora de la entrada/salida de disco." Doctoral thesis, Universidad de Murcia, 2012. http://hdl.handle.net/10803/86518.

Full text
Abstract:
Principales contribuciones de esta tesis: Un «proyecto de caché de disco mejorada mediante RAM» (REDCAP, RAM Enhanced Disk Cache Project), que añade: una nueva caché de disco en RAM, una técnica de prefetching y un mecanismo para controlar su rendimiento. El tiempo de E/S de lectura se llega a reducir en más de un 80%. Un «simulador de disco dentro del núcleo», que es capaz de simular tanto discos duros como de estado sólido. Esta propuesta nos permite simultáneamente comparar varios mecanismos de E/S y, dinámicamente, activarlos/desactivarlos dependiendo del rendimiento. Ha sido probada satisfactoriamente en REDCAP y en DADS. Un «marco de planificación de disco automático y dinámico» (DADS, Dynamic and Automatic Disk Scheduling framework), que compara dos planificadores de E/S de Linux y selecciona automáticamente el planificador de E/S que proporciona el mayor rendimiento en cada momento. El rendimiento alcanzado está siempre cercano al del mejor planificador.
Main contributions of this thesis: The RAM Enhanced Disk Cache Project, REDCAP, that introduces: a new disk cache in the main memory, a prefetching technique, and a mechanism to control the performance achieved. We have been able to reduce the read I/O time by more than 80% in workloads with spatial locality, without downgrading performance in other. An in--kernel disk simulator that is able to simulate both hard disk and solid state drives. This proposal allows us to compare, simultaneously, the behavior of different I/O system mechanisms, and to dynamically activate/deactivate them, depending on the performance. It has been successfully used in REDCAP and in our third contribution. A Dynamic and Automatic Disk Scheduling framework (DADS), that compares two Linux I/O schedulers and selects the one providing, for the current workload, the highest throughput. Performance achieved is always close to that obtained by the best scheduler.
APA, Harvard, Vancouver, ISO, and other styles
49

Hernández, Orallo Enrique. "Reserva eficiente de recursos en redes para transmisión en tiempo real." Doctoral thesis, Universitat Politècnica de València, 2009. http://hdl.handle.net/10251/4262.

Full text
Abstract:
La demanda de calidad de servicio (QoS: Quality of Service) y transmisión en tiempo real se ha incrementado debido al desarrollo de nuevas aplicaciones multimedia. Esta transmisión de informática multimedia implica un gran consumo de recursos en las redes de comunicación. Esto es debido fundamentalmente a las características de este tipo de tráfico y a la calidad de servicio requerida por las aplicaciones que lo necesitan. Para la realización de esta transmisión se establece un canal. El establecimiento de este canal implica la reserva de unos recursos de red (normalmente ancho de banda y memoria) que dependen principalmente en las característticas del tráfico y los parámetros de la red. El tráfico multimedia suele tener alta variabilidad en la tasa de transmisión, lo que implica que para garantizar la calidad de servicio se hagan unas reservas elevadas de recursos. Pero debido a la alta variabilidad de este tráfico, en muchos momentos estos recursos no son utilizados. La disminución de la reserva puede implicar un incumplimento de la calidad de servicio especificado. Por lo tanto, un aspecto clave en estas redes es la optimización de la reserva de recursos. Se requieren, por tanto, métodos con los que poder estimar esta reserva a partir de las características del tráfico y la red. Estos métodos tienen que ser eficientes y rápidos para poder ejecutarse on-line. En esta tesis se introducen varios esquemas para el ahorro de recursos en la red. El primero de ellos está basado en condenasar la información de un tráfico VBR en una seria de puntos con lo que se desarrolla un método para obtner la reserva óptima de ancho de banda en los enlaces como de memoria en los nodos. Para ambos casos se utiliza una especificación de tráfico leaky o token bucket que es la más usada. Como punto final se propone un nuevo esquema de activación de canales de reserva con el objetivo de minimizar la reserva conjunta de recursos del canal primario y secundario.
Hernández Orallo, E. (2001). Reserva eficiente de recursos en redes para transmisión en tiempo real [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/4262
Palancia
APA, Harvard, Vancouver, ISO, and other styles
50

Titos, Gil José Rubén. "Hardware Techniques for High-Performance Transactional Memory in Many-Core Chip Multiprocessors." Doctoral thesis, Universidad de Murcia, 2011. http://hdl.handle.net/10803/51473.

Full text
Abstract:
Esta tesis investiga la implementación hardware eficiente de los sistemas de memoria transaccional (HTM) en un chip multiprocesador escalable (CMP), identificando aspectos que limitan el rendimiento y proponiendo técnicas que solventan dichas patologías. Las contribuciones de la tesis son varios diseños HTM complementarios que alcanzan un rendimiento robusto y evitan comportamientos patológicos, mediante la introducción de flexibilidad y adaptabilidad, sin que dichas técnicas apenas supongan un incremento en la complejidad del sistema global. Esta disertación considera tanto sistemas HTM de política ansiosa como aquellos diseñados bajo el enfoque perezoso, y afrontamos las sobrecargas en el rendimiento que son inherentes a cada política. Quizá la contribución más relevante de esta tesis es ZEBRA, un sistema HTM de política híbrida que adapta su comportamiento en función de las características dinámicas de la carga de trabajo.
This thesis focuses on the hardware mechanisms that provide optimistic concurrency control with guarantees of atomicity and isolation, with the intent of achieving high-performance across a variety of workloads, at a reasonable cost in terms of design complexity. This thesis identifies key inefficiencies that impact the performance of several hardware implementations of TM, and proposes mechanisms to overcome such limitations. In this dissertation we consider both eager and lazy approaches to HTM system design, and address important sources of overhead that are inherent to each policy. This thesis presents a hybrid-policy, adaptable HTM system that combines the advantages of both eager and lazy approaches in a low complexity design. Furthermore, this thesis investigates the overheads of the simpler, fixed-policy HTM designs that leverage a distributed directory-based coherence protocol to detect data races over a scalable interconnect, and develops solutions that address some performance degrading factors.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography