To see the other types of publications on this topic, follow the link: Diagrama de flujo de datos.

Dissertations / Theses on the topic 'Diagrama de flujo de datos'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 29 dissertations / theses for your research on the topic 'Diagrama de flujo de datos.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Yamaguti, Marcelo Hideki. "Técnicas diagramáticas para desenvolvimento de software orientado a objetos." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 1993. http://hdl.handle.net/10183/25463.

Full text
Abstract:
Este trabalho aborda a efetiva utilização de técnicas diagramáticas para o desenvolvimento de software orientado a objetos durante as fases de análise e projeto de sistemas. Durante o desenvolvimento de software normalmente as especificações resultantes das fases de análise e projeto possuem uma forma gráfica. A utilização de diagramas no desenvolvimento de software busca facilitar a criação de especificações de um sistema e ao mesmo tempo torná-las mais compreensíveis. A grande maioria das técnicas diagramáticas que existem atualmente são utilizadas para o apoio ao desenvolvimento de software segundo metodologias fundamentadas no paradigma tradicional de decomposição funcional. Diversas técnicas diagramáticas foram criadas ou adaptadas a fim de suportar os conceitos deste paradigma, acompanhando a própria evolução do mesmo. Neste contexto, são apresentadas as características básicas de técnicas diagramáticas tradicionais que apoiam a este paradigma. A partir da introdução dos conceitos de orientação a objetos no desenvolvimento de software, surge a necessidade de criação de novas técnicas diagramáticas ou adaptação de técnicas diagramáticas tradicionais para o suporte adequado ao desenvolvimento de sistemas sob este paradigma. Neste contexto, são abordados os conceitos envolvidos na orientação a objetos e apresentados os aspectos diferenciais no desenvolvimento de software decorrentes da utilização deste paradigma em contraposição aos paradigmas tradicionais. São também apresentadas as tarefas específicas realizadas durante o desenvolvimento de software, nas fases de análise e projeto, que estão inseridas no ciclo de vida de um software orientado a objetos. É proposto um conjunto de notações diagramáticas inter-relacionadas adequado ao apoio de um esquema de etapas básicas para o desenvolvimento de software orientado a objetos, bem como as metodologias já existentes. Durante a descrição destas notações diagramáticas, são apresentadas as suas características individuais, adaptações realizadas para o suporte a orientação a objetos, suas aplicações específicas no desenvolvimento de sistemas e o inter-relacionamento existente. Finalmente, são definidas as características de recursos e facilidades específicas para o apoio às notações propostas. Dentro dos recursos sugeridos inclui-se a definição da implementação de um editor diagramático que é descrito através das notações sugeridas neste trabalho.<br>This work tackles the effective use of diagramming techniques for object-oriented software development during analysis and design phases. During software development the specifications produced by analysis and design usually take a graphical form. The use of diagrams in software development occurs because designers and analysts like to express themselves that way to turn the specifications more understandable. Most of diagramming techniques in use nowadays support software development following methodologies based on the conventional functional decomposition paradigm. Various diagramming techniques were created or adapted in order to support the concepts of this paradigm, following its own evolution. With the introduction of object-oriented concepts new diagramming techniques were created or adapted from conventional methodologies. This work introduces the concepts of object orientation, as well as, the changes originated from the use of this paradigm in software development. Specific steps related to the analysis and design stages in the object-oriented software life cycle are also presented. A set of interrelated diagramming techniques for supporting object-oriented software development is presented. A set of interrelated diagramming techniques for supporting object-oriented software development is presented. The description of these diagramming techniques includes new features, discussion of adaptations for object-oriented techniques, specific applications and uses, and their integration. Finally, the features of specific resources and facilities for supporting the proposed notations are defined. The description of the implementation of a diagrammatic editor, using the notations presented in this work, is included.
APA, Harvard, Vancouver, ISO, and other styles
2

Valdez, Bernal Arturo. "Diagrama de Flujo aplicado, para el análisis del procedimiento de adquisiciones en el municipio de Nicolás Romero." Tesis de Licenciatura, Universidad Autónoma del Estado de México, 2018. http://hdl.handle.net/20.500.11799/98844.

Full text
Abstract:
Hoy día la globalización demanda de las empresas que sean cada día más productivas, eficientes y adaptables a cambios rápidos del mercado a fin de sobrevivir en este competitivo entorno. Como profesionistas, no podemos dejar de lado todos estos factores, por lo que es necesario nuestra mejora continua al desempeñar las actividades. Debido a esto y como parte de las opciones de titulación, comparto el presente documento, esperando sea un precedente y una referencia para las nuevas generaciones que incursionen en la rama manufacturera de película de PVC, en la cual yo participe por más de seis años y de la cual hoy comparto mi experiencia profesional. Dado que este documento es una memoria de trabajo, está escrito principalmente en un estilo descriptivo, compilando el conocimiento y la experiencia que acumule durante mi carrera profesional en Films de México, S.A. de C.V., primero como supervisor de producción y luego como jefe de producción, asimismo incluyo una sección de lecciones aprendidas que podría usarse como material de consulta.
APA, Harvard, Vancouver, ISO, and other styles
3

Cardoso, Rharã de Almeida. "Desenvolvimento de metodologia para identificação modal automática de estruturas." reponame:Repositório Institucional da UFOP, 2015. http://www.repositorio.ufop.br/handle/123456789/5289.

Full text
Abstract:
Programa de Pós Graduação em Engenharia Civil. Departamento de Engenharia Civil, Escola de Minas, Universidade Federal de Ouro Preto.<br>Submitted by Oliveira Flávia (flavia@sisbin.ufop.br) on 2015-05-11T16:57:14Z No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_DesenvolvimentoMetodologiaIdentificação.pdf: 4405636 bytes, checksum: 8c89cc049fea8b193172833e3462aa23 (MD5)<br>Approved for entry into archive by Gracilene Carvalho (gracilene@sisbin.ufop.br) on 2015-05-12T13:29:54Z (GMT) No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_DesenvolvimentoMetodologiaIdentificação.pdf: 4405636 bytes, checksum: 8c89cc049fea8b193172833e3462aa23 (MD5)<br>Made available in DSpace on 2015-05-12T13:29:54Z (GMT). No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_DesenvolvimentoMetodologiaIdentificação.pdf: 4405636 bytes, checksum: 8c89cc049fea8b193172833e3462aa23 (MD5) Previous issue date: 2015<br>O monitoramento da integridade estrutural (SHM – Structural Health Monitoring) de estruturas é de grande importância prática para engenharia civil. Grandes obras como a ponte Rio-Niterói, no Brasil, a ponte Z24, na Suíça, ou o viaduto de Millau, na França, são monitoradas há algum tempo. De fato, algumas estruturas são monitoradas 24 horas por dia,7 dias por semana, com o objetivo de fornecer medidas dinâmicas que possam ser usadas para a identificação de problemas estruturais tais como a presença de dano ou de vibração excessiva. Esta análise deve passar pelo processo denominado identificação modal, cujos dados de saída são chamados de parâmetros modais, nomeadamente frequências naturais, taxas de amortecimento e formas modais. Portanto, é fundamental que haja o desenvolvimento e a validação de ferramentas para a identificação automática destes parâmetros. Uma vez que o sucesso dos algoritmos de detecção de dano depende da precisão das estimativas dos parâmetros modais, é imperativo que o algoritmo de automatização da identificação seja eficiente e adequado para tratar as respostas da estrutura durante sua operação normal. A metodologia proposta neste trabalho se utiliza dos dados fornecidos por um algoritmo de identificação paramétrico (que gera um diagrama de estabilização), como o SSI-DATA, para determinar automaticamente os parâmetros dinâmicos da estrutura. A eficiência desta metodologia é atestada mediante sua aplicação a sinais gerados numericamente, a respostas de uma viga biapoiada ensaiada em laboratório e aos dados do monitoramento de uma ponte rodoviária. _______________________________________________________________________________<br>ABSTRACT: Structural health monitoring of civil infrastructures has great practical importance for engineers, owners and stakeholders. Numerous researches have been carried out using long-term monitoring, for instance the Rio-Niterói Bridge in Brazil, the former Z24 Bridge in Switzerland, the Millau Bridge in France, among others. In fact, some structures are monitored 24/7 in order to supply dynamic measurements that can be used for the identification of structural problems such as the presence of cracks, excessive vibration, damage identification or even to perform a quite extensive structural evaluation concerning its reliability and life cycle. The outputs of such an analysis, commonly entitled modal identification are the so-called modal parameters, i.e. natural frequencies, damping rations and mode shapes. Therefore, the development and validation of tools for the automatic identification of modal parameters based on the structural responses during normal operation is fundamental, as the success of subsequent damage detection algorithms depends on the accuracy of the modal parameters estimates. The proposed methodology uses the data driven stochastic subspace identification method (SSI-DATA), which is then complemented by a novel procedure developed for the automatic analysis of the stabilization diagrams provided by the SSI-DATA method. The efficiency of the proposed approach is attested via experimental investigations on numerical data, on a simply supported beam tested in laboratory and on a motorway bridge.
APA, Harvard, Vancouver, ISO, and other styles
4

Morais, Érica Vasconcelos de [UNESP]. "Metodologia e diretrizes para desenvolvimento de um ambiente computacional para ensino a distância." Universidade Estadual Paulista (UNESP), 2007. http://hdl.handle.net/11449/87229.

Full text
Abstract:
Made available in DSpace on 2014-06-11T19:22:35Z (GMT). No. of bitstreams: 0 Previous issue date: 2007-11-28Bitstream added on 2014-06-13T19:28:08Z : No. of bitstreams: 1 morais_ev_me_ilha.pdf: 510161 bytes, checksum: 6af6d69fa6200a199ca042b9537fb4e4 (MD5)<br>Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)<br>Antigamente, eram utilizados para o ensino à distância apenas os meios de comunicação tradicionais (revistas, livros, TV e rádio) para passar informações e conteúdos. Com o surgimento de novos meios de comunicação, surgiu a necessidade de desenvolver novos métodos de ensino para integrar pessoas de diversas áreas e regiões. Com isso, faz-se necessário o estudo de metodologias e desenvolvimento de novas tecnologias de comunicação. O presente trabalho tem como objetivo apresentar a modelagem para o desenvolvimento de uma ferramenta de Ensino à Distância. Apresentou-se também a Metodologia OOHDM – Object Oriented Hypermedia Design Method, na qual foi utilizada o Modelo Navegacional onde apresenta o mapeamento do caminho que o usuário deverá fazer na navegação do sistema. A UML - Unified Modeling Language com o uso dos diagramas de casos de uso, apresentou as opções que podem ser realizadas na manipulação da interface. A camada de regra de negócio ofereceu o funcionamento do sistema através do DFD Diagrama de Fluxo de Dados. A camada de dados proporcionou a estrutura conceitual e lógica do banco de dados através do Modelo E-R (Entidade – Relacionamento) e do Modelo relacional, para que, através da análise dos diagramas e modelos obtidos, consiga-se compreender o sistema como um todo e possibilite a tomada de decisões mais precisas e em menor tempo, caso seja necessário efetuar alterações nesta aplicação.<br>The old traditional medias (magazines, books, TV and radio) were used for education at distance only to pass information and contends. With the creating of new medias, appeared the necessity to develop new methods of education to integrate people of different areas and regions. Therefore, study of methodologies and development of new technologies of communication becomes necessary. The present work had as objective to present a modeling for the development of an Education at Distance tool. Methodology OOHDM – Object Oriented Hypermedia Design Method was also presented, in which was used the Navigational Model where it presents the mapping of the way that the user will have to make in the navigation system. The UML, United Modeling Language with the use of the diagrams of use cases, presented the options that can be realized through the manipulation of the interface. The business service offered the functioning of the system through the DFD (Diagram of Data Flow). The data service provided the conceptual structure and logical of data base through model E-R (entity – Relationship) and relation Model, so that, through the gotten analysis of diagrams and models, it’s possible to understand the system as a whole and make it possible to take more precise decisions in less time, if it is necessary to provide alterations in this application.
APA, Harvard, Vancouver, ISO, and other styles
5

Guirado, Fernández Fernando. "Modelización y Asignación de Tareas para Aplicaciones Paralelas con Flujo Continuo de Datos de Entrada." Doctoral thesis, Universitat Autònoma de Barcelona, 2007. http://hdl.handle.net/10803/5767.

Full text
Abstract:
Las aplicaciones paralelas que procesan flujos continuos de datos de entrada, denominadas como aplicaciones pipeline, son de gran interés para la comunidad científica. Los principales criterios de rendimiento en el proceso de su optimización son dos: (a) minimizar la latencia, de forma que se obtenga el resultado para un dato de entrada en el menor tiempo posible y (b) conseguir un ratio de datos procesados por unidad de tiempo predeterminado, valor denominado como productividad.<br/>La necesidad de procesar una flujo continuo de datos, añade un factor de iteratividad en la ejecución de las tareas, lo cual supone un incremento en la complejidad de su optimización respecto a las aplicaciones que solo procesan un dato de entrada.<br/>El objetivo de este trabajo de tesis contribuye en aportar una solución en la optimización de las aplicaciones pipeline. El proceso de optimización está basado en la obtención de una productividad específica en la ejecución de la aplicación. Para realizarllo, se aborda el problema mediante dos estrategias: (a) cuando la aplicacione no tienen la capacidad de alcanzar la productividad requerida, se crea una nueva estructura para el grafo de tareas que lo permita y, (b) en la situación de que le requerimiento de productividad sí sea alcanzable, se definen estrategias de mapping que asignan las tareas a los procesadores asegurando la capacidad de obtener el rendimiento marcado como objetivo. La arquitectura de ejecución escogida en esta tesis está basada en la arquitectura de memoria distribuida, por ser ésta la más utilizada en la actualidad en el cómputo de altas prestaciones.<br/>Con respecto a la definición del grafo de tareas, esta tesis desarrolla dos técnicas basadas en la paralelización/replicación de taeras y que minimizan la sobrecarga de las comunicaciones. Ambas técnicas localizan las tareas que actúan como cuello de botella en la obtención del requisito de productividad. Con el conocimiento de su funcionalidad y del tipo de flujo de datos a tratar aplican: (a) paralelismo de datos para disminuir el tiempo de cómputo individual de cada uno de los datos de entrada o (b) replicación de tareas para aumentar la capacidad de procesar, de forma concurrente, más datos del flujo de entrada. <br/>En el proceso de mapping, en el que las tareas de la aplicación serán asignadas a los nodos de procesamiento de la arquitectura de ejecución, esta tesis propone dos heurísticas de mapping basadas en el concepto de etapa síncrona y con diferente complejidad. Estas heurísticas reciben el nombre de MPASS (Mapping of Pipeline Applications based on Synchronous Stages) y MPART (Mapping of Pipeline Applications based on Reduced Tree). Ambas heurísticas, poseen los mismos objetivos para la asignación: (a) obtener una productividad prefijada, minimizando el número de nodos de procesamiento o (b) minimizar la latencia, bajo un requisito de productividad a alcanzar y, de nuevo, minimizando el número de nodos de procesamiento.<br/>La experimentación se ha realizado utilizando un conjunto de aplicaciones sintéticas que modelan el comportamiento de las aplicaciones pipeline y tres aplicaciones reales de diferentes ámbitos científicos: el compresor de vídeo MPEG2, IVUS (IntraVascular UltraSound), encargada de procesar imágenes medicas para definir la estructura arterial y BASIZ (Bright And Satured Images Zones), que detecta en una secuencia de imágenes, aquellas regiones que captan la atención del ojo humano. Los resultados obtenidos demuestran como las técnicas propuestas son capaces de alcanzar el redimiento marcado como objetivo, proponiendo la estructura más adecuada para el grafo de tareas y mediante el mapping apropiado para las aplicaicones pipeline.<br>Parallel applications that process an input data stream, called pipeline applications, are currently focussing the interest of scientific comunity. The main issues to deal with in the optimization process of these applications are the following two: (a) to minimize latency, allowing the execution of one data of the input stream in the smallest possible time and, (b) to achieve a specific ratio of data processed per time unit, named as throughput.<br/>The necessity of processing an input data stream, adds a characteristic of iterativity in the execution of tasks that increases the complexity of the optimization of these applications compared with this for parallel applications that only process a single input data.<br/>The aim of this thesis is to contribute with a solution in the optimization of the pipeline applications. The optimization process is based on the obtention of a specific throguhput for the application during the execution. To do this, we confront the problem with two kind of strategies: (a) when the pipeline application is not able to achieve the throughput requirement, we develop the definition of a new task graph structure that allows it and, (b) in the situation where the required throuhgput is achievable, we define task mapping strategies that assign tasks to processors ensuring the capacity of obtaining the performance objective. The execution architecture selected in this thesis is based on the distributed memory arquitecture, as can be the clusters of workstations, which in the present time are broadly used on high performance computing.<br/>Related to the task graph definition issue, this thesis propose two new techniques based on task parallelization/replication and reduce the communications overhead. Both techniques find the bottleneck tasks that don't allow to reach the throughput requirement. With the knowledge of their functionality and the kind of input data stream they apply: (a) data parallelism to minimize the individual computation time of a single input data or, (b) task replication in order to increase the ability of the pipeline application to process concurrently a higher number of input data.<br/>In the mapping process, where the tasks of the applications are assigned to the processors on the execution architecture, this thesis proposes two new mapping heuristics based in the synchronous stage concept, with different complexity. These heuristics are named as MPASS (Mapping of Pipeline Applications based on Synchronous Stages) and MPART (Mapping of Pipeline Applications based on Reduced Tree). Both mapping heuristics have the same objectives: (a) to obtain the throughput used as the requirement by minimizing the number of processors and, (b) to minimize the latency, under a throughput requirement to be achieved by minimizing the number of processors to be used too.<br/>The experimentation process is carried out using a set of synthetic applications that model the behaviour of the pipeline applications, and with three real applications of different scientific fields: the video mpeg-2 compressor, IVUS (IntraVascular-UltraSound) that process medical images in order to determine the arterial structure and BASIZ (Bright and Satured Images Zones) that detects on a image sequence, the zones that capture the main interest of the human eye. The results show that the proposed techniques are able to reach the target performance, proposing the best suitable task graph structure and the appropriate task mapping for these pipeline applications.
APA, Harvard, Vancouver, ISO, and other styles
6

Zirbes, Sergio Felipe. "A reutilização de modelos de requisitos de sistemas por analogia : experimentação e conclusões." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 1995. http://hdl.handle.net/10183/17809.

Full text
Abstract:
A exemplo de qualquer outra atividade que se destine a produzir um produto, a engenharia de software necessariamente passa por um fase inicial, onde necessário definir o que será produzido. A análise de requisitos é esta fase inicial, e o produto dela resultante é a especificação do sistema a ser construído. As duas atividades básicas durante a analise de requisitos são a eliciação (busca ou descoberta das características do sistema) e a modelagem. Uma especificação completa e consistente é condição indispensável para o adequado desenvolvimento de um sistema. Muitos tem sido, entretanto, os problemas enfrentados pelos analistas na execução desta tarefa. A variedade e complexidade dos requisitos, as limitações humanas e a dificuldade de comunicação entre usuários e analistas são as principais causas destas dificuldades. Ao considerarmos o ciclo de vida de um sistema de informação, verificamos que a atividade principal dos profissionais em computação é a transformação de uma determinada porção do ambiente do usuário, em um conjunto de modelos. Inicialmente, através de um modelo descritivo representamos a realidade. A partir dele derivamos um modelo das necessidades (especificação dos requisitos), transformando-o a seguir num modelo conceitual. Finalizando o ciclo de transformações, derivamos o modelo programado (software), que ira se constituir no sistema automatizado requerido. Apesar da reconhecida importância da analise dos requisitos e da conseqüente representação destes requisitos em modelos, muito pouco se havia inovado nesta área ate o final dos anos 80. Com a evolução do conceito de reutilização de software para reutilização de especificações ou reutilização de modelos de requisitos, finalmente surge não apenas um novo método, mas um novo paradigma: a reutilização sistemática (sempre que possível) de modelos integrantes de especificações de sistemas semelhantes ao que se pretende desenvolver. Muito se tem dito sobre esta nova forma de modelagem e um grande número de pesquisadores tem se dedicado a tornar mais simples e eficientes várias etapas do novo processo. Entretanto, para que a reutilização de modelos assuma seu papel como uma metodologia de use geral e de plena aceitação, resta comprovar se, de fato, ele produz software de melhor quantidade e confiabilidade, de forma mais produtiva. A pesquisa descrita neste trabalho tem por objetivo investigar um dos aspectos envolvido nesta comprovação. A experimentação viabilizou a comparação entre modelos de problemas construídos com reutilização, a partir dos modelos de problemas similares previamente construídos e postos a disposição dos analistas, e os modelos dos mesmos problemas elaborados sem nenhuma reutilização. A comparação entre os dois conjuntos de modelos permitiu concluir, nas condições propostas na pesquisa, serem os modelos construídos com reutilização mais completos e corretos do que os que foram construídos sem reutilização. A apropriação dos tempos gastos pelos analistas durante as diversas etapas da modelagem, permitiu considerações sobre o esforço necessário em cada um dos dois tipos de modelagem. 0 protocolo experimental e a estratégia definida para a pesquisa possibilitaram também que medidas pudessem ser realizadas com duas series de modelos, onde a principal diferença era o grau de similaridade entre os modelos do problema reutilizado e os modelos do problema alvo. A variação da qualidade e completude dos dois conjuntos de modelos, bem como do esforço necessário para produzi-los, evidenciou uma questão fundamental do processo: a reutilização só terá efeitos realmente produtivos se realizada apenas com aplicações integrantes de domínios específicos e bem definidos, compartilhando, em alto grau, dados e procedimentos. De acordo com as diretrizes da pesquisa, o processo de reutilização de modelos de requisitos foi investigado em duas metodologias de desenvolvimento: na metodologia estruturada a modelagem foi realizada com Diagramas de Fluxo de Dados (DFD's) e na metodologia orientada a objeto com Diagramas de Objetos. A pesquisa contou com a participação de 114 alunos/analistas, tendo sido construídos 175 conjuntos de modelos com diagramas de fluxo de dados e 23 modelos com diagramas de objeto. Sobre estas amostras foram realizadas as analises estatísticas pertinentes, buscando-se responder a um considerável número de questões existentes sobre o assunto. Os resultados finais mostram a existência de uma série de benefícios na análise de requisitos com modelagem baseada na reutilização de modelos análogos. Mas, a pesquisa em seu todo mostra, também, as restrições e cuidados necessários para que estes benefícios de fato ocorram.<br>System Engineering, as well as any other product oriented activity, starts by a clear definition of the product to be obtained. This initial activity is called Requirement Analysis and the resulting product consists of a system specification. The Requirement Analysis is divided in two separated phases: elicitation and modeling. An appropriate system development definition relies in a complete, and consistent system specification phase. However, many problems have been faced by system analysts in the performance of such task, as a result of requirements complexity, and diversity, human limitations, and communication gap between users and developers. If we think of a system life cycle, we'll find out that the main activity performed by software engineers consists in the generation of models corresponding to specific parts of the users environment. This modeling activity starts by a descriptive model of the portion of reality from which the requirement model is derived, resulting in the system conceptual model. The last phase of this evolving modeling activity is the software required for the system implementation. In spite of the importance of requirement analysis and modeling, very little research effort was put in these activities and none significant improvement in available methodologies were presented until the late 80s. Nevertheless, when the concepts applied in software reuse were also applied to system specification and requirements modeling, then a new paradigm was introduced, consisting in the specification of new systems based on systematic reuse of similar available system models. Research effort have been put in this new modeling technique in the aim of make it usable and reliable. However, only after this methodology is proved to produce better and reliable software in a more productive way, it would be world wide accepted by the scientific and technical community. The present work provides a critical analysis about the use of such requirement modeling technique. Experimental modeling techniques based on the reuse of similar existing models are analyzed. Systems models were developed by system analyst with similar skills, with and without reusing previously existing models. The resulting models were compared in terms of correction, consumed time in each modeling phase, effort, etc. An experimental protocol and a special strategy were defined in order to compare and to measure results obtained from the use of two different groups of models. The main difference between the two selected groups were the similarity level between the model available for reuse and the model to be developed. The diversity of resulting models in terms of quality and completeness, as well in the modeling effort, was a corroboration to the hypothesis that reuse effectiveness is related to similarity between domains, data and procedures of pre-existing models and applications being developed. In this work, the reuse of requirements models is investigated in two different methodologies: in the first one, the modeling process is based on the use of Data Flow Diagrams, as in the structured methodology; in the second methodology, based on Object Orientation, Object Diagrams are used for modeling purposes. The research was achieved with the cooperation of 114 students/analysts, resulting in 175 series of Data Flow Diagrams and 23 series of Object Diagrams. Proper statistical analysis were conducted with these samples, in order to clarify questions about requirements reuse. According to the final results, modeling techniques based on the reuse of analogous models provide an improvement in requirement analysis, without disregarding restrictions resulting from differences in domain, data and procedures.
APA, Harvard, Vancouver, ISO, and other styles
7

Huerta, Herrera Iván Daniel. "Diseño e implementación de dispositivo de adquisición de datos para sistema de trazado de flujo material." Tesis, Universidad de Chile, 2014. http://repositorio.uchile.cl/handle/2250/131452.

Full text
Abstract:
Ingeniero Civil Eléctrico<br>El control de la entrada de dilución en minería de block caving es un factor importante para maximizar la ley media de mineral del material extraído. El conocimiento de este influye directamente en la planificación de extracción. Por este motivo, marcadores han sido utilizados en diversos yacimientos de minería subterránea con el fin de conocer la ubicación del material de descarte, sin embargo no existe una herramienta en tiempo real basada en sistemas de navegación inercial en el mercado que realice este cometido. Este trabajo de título busca un método alternativo de marcado de material al existente en la actualidad, basado en un sistema de navegación inercial. El sistema diseñado consta de una serie de nodos comunicados entre sí, denominados trazadores, quienes entregan la información a un nodo central para el cálculo de su posición en tiempo real. Dado el alcance de este trabajo de título, se trabajó en pruebas del sistema de adquisición de datos; construyéndolo y validando su factibilidad de uso, entregando de esta forma información de la aceleración y velocidad angular de un cuerpo de interés. La construcción del sistema se realizó de acuerdo al diseño planteado, mostrando satisfactoriamente plenas capacidades de sus módulos funcionales, midiendo correctamente las variables de interés necesarias para estimar la posición del dispositivo trazador. Se espera que en trabajos futuros se desarrollen técnicas de procesamiento de datos utilizando esta herramienta, mediante filtros Bayesianos u otro tipo, que permita estimar la posición con un error más acotado; y que de esta manera se prolongue el tiempo de uso del sistema en yacimientos mineros.
APA, Harvard, Vancouver, ISO, and other styles
8

Palomino, Masco Jairo Abner. "Implementación de una herramienta de traducción y verificación de programas diseñados en diagrama de flujo utilizando como paso intermedio pseudocódigo." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2014. http://tesis.pucp.edu.pe/repositorio/handle/123456789/5726.

Full text
Abstract:
Este proyecto de fin de carrera parte de la ausencia de herramientas que sirvan de ayuda para aquellos alumnos que quieran aprender a programar. Si bien existen programas que permiten generar diagramas de flujo y luego exportarlos a un lenguaje de programación, estos no poseen un compilador que permita detectar errores de sintaxis, que pueda poseer la solución. Por ello se plantea implementar un proceso de traducción y verificación de programas diseñados en diagrama de flujo utilizando como paso intermedio pseudocódigo, para que el alumno pueda preocuparse más en la lógica de su solución, que en la sintaxis o estructura del lenguaje de programación, a codificar. Para realizar este proyecto se definió una serie de objetivos específicos. En primer lugar se desarrolló un entorno para dibujar diagramas de flujo, para ello se adaptaron las librerías de Microsoft office que ofrecen las herramientas necesarias para la creación del entorno de trabajo. Luego, se definió la gramática que almacena la sintaxis del pseudocódigo utilizando la notación Backus-Naur Form (BNF). Después se implementó el método de conversión del formato XML de Microsoft office, representación del diagrama de flujo, a pseudocódigo utilizando la sintaxis definida anteriormente y un editor de texto en el cual se muestre el resultado de la conversión al usuario. Finalmente se implementó el intérprete que utiliza la gramática para verificar que el código se encuentre léxicamente, sintácticamente y semánticamente correcto. De esta manera los alumnos podrán obtener a partir de un diagrama, el cual al ser gráfico es de fácil entendimiento, el código de su programa sin necesidad de conocer la sintaxis del mismo y validado.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
9

Morais, Érica Vasconcelos de. "Metodologia e diretrizes para desenvolvimento de um ambiente computacional para ensino a distância /." Ilha Solteira : [s.n.], 2007. http://hdl.handle.net/11449/87229.

Full text
Abstract:
Orientador: José Carlos Rossi<br>Banca: Júlio Borges de Souza<br>Banca: Marco Aparecido Queiroz Duarte<br>Resumo: Antigamente, eram utilizados para o ensino à distância apenas os meios de comunicação tradicionais (revistas, livros, TV e rádio) para passar informações e conteúdos. Com o surgimento de novos meios de comunicação, surgiu a necessidade de desenvolver novos métodos de ensino para integrar pessoas de diversas áreas e regiões. Com isso, faz-se necessário o estudo de metodologias e desenvolvimento de novas tecnologias de comunicação. O presente trabalho tem como objetivo apresentar a modelagem para o desenvolvimento de uma ferramenta de Ensino à Distância. Apresentou-se também a Metodologia OOHDM - Object Oriented Hypermedia Design Method, na qual foi utilizada o Modelo Navegacional onde apresenta o mapeamento do caminho que o usuário deverá fazer na navegação do sistema. A UML - Unified Modeling Language com o uso dos diagramas de casos de uso, apresentou as opções que podem ser realizadas na manipulação da interface. A camada de regra de negócio ofereceu o funcionamento do sistema através do DFD Diagrama de Fluxo de Dados. A camada de dados proporcionou a estrutura conceitual e lógica do banco de dados através do Modelo E-R (Entidade - Relacionamento) e do Modelo relacional, para que, através da análise dos diagramas e modelos obtidos, consiga-se compreender o sistema como um todo e possibilite a tomada de decisões mais precisas e em menor tempo, caso seja necessário efetuar alterações nesta aplicação.<br>Abstract: The old traditional medias (magazines, books, TV and radio) were used for education at distance only to pass information and contends. With the creating of new medias, appeared the necessity to develop new methods of education to integrate people of different areas and regions. Therefore, study of methodologies and development of new technologies of communication becomes necessary. The present work had as objective to present a modeling for the development of an Education at Distance tool. Methodology OOHDM - Object Oriented Hypermedia Design Method was also presented, in which was used the Navigational Model where it presents the mapping of the way that the user will have to make in the navigation system. The UML, United Modeling Language with the use of the diagrams of use cases, presented the options that can be realized through the manipulation of the interface. The business service offered the functioning of the system through the DFD (Diagram of Data Flow). The data service provided the conceptual structure and logical of data base through model E-R (entity - Relationship) and relation Model, so that, through the gotten analysis of diagrams and models, it's possible to understand the system as a whole and make it possible to take more precise decisions in less time, if it is necessary to provide alterations in this application.<br>Mestre
APA, Harvard, Vancouver, ISO, and other styles
10

Alarcón, Matta José Luis. "Modelo de gestión del conocimiento aplicado a la gestión de procesos de negocio." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2007. https://hdl.handle.net/20.500.12672/2653.

Full text
Abstract:
El presente trabajo de investigación tiene como objetivo proponer un modelo de Gestión del Conocimiento que se aplique a la Gestión de Procesos de Negocio (Business Process Management, BPM) en las organizaciones, ante los enormes desafíos de competitividad, y la problemática de una deficiente gestión de los recursos intangibles, siendo entre ellos los fundamentales: el conocimiento y las personas - con sus competencias y habilidades -. La generación y gestión del conocimiento constituyen una disciplina de transformación organizacional que habilita a la empresa a crear y sostener ventajas competitivas en el tiempo, que para hacerlas efectivas, es necesario enfrentar un diseño de la estructura y actividades que soportan el nacimiento, identificación, almacenamiento y distribución de este activo intangible, para lo cual es posible apoyarse en el enfoque BPM. Para lograr el objetivo anterior, se establece una metodología que genera la arquitectura de conocimiento (AC) que una empresa en un dominio particular requiere para llevar a la práctica la gestión de su activo intangible. Como resultados esperados se tiene la fusión de la Gestión del Conocimiento, BPM y las Tecnologías de Información; la definición de lineamientos básicos para la cultura de conocimiento alineado a los modelos de gestión de conocimientos, así como para la construcción de una arquitectura de conocimiento de la organización, con la que se podrá encontrar toda la información relevante y se transformará en conocimiento que podrá ser aplicado para optimizar aspectos funcionales de la organización, dando la eficiencia para ser competitivos con respecto a otras organizaciones y enfrentarse al constante cambio.<br>The present investigation has as objective propose a model of Knowledge Management that is applied to the Business Process Management in organizations, before the enormous challenges of competitiveness, and the problematic of a deficient management of the intangible resources, being among them the fundamental ones: the knowledge and the people - with its competitions and abilities -. The generation and management of the knowledge constitute a discipline of organizational transformation that it qualifies to the company to create and to maintain competitive advantages in the time, that to make them effective, is necessary to face a design of the structure and activities that support the creation, identification, storage and distribution of this intangible assets, for which it is possible to lean in the approach BPM. In order to obtain the previous objective, a methodology settles down that generates the knowledge architecture (AC) that a company in a particular dominion requires to take to the practice the management of its intangible assets. As awaited results have the fusion of the Kownledge Management, BPM and the Information Technologies; the definition of basic guidelines for the culture of knowledge aligned to the models of knowledge management, as well as for the construction of a knowledge architecture of the organization, with whom all the information will be able to be found and it will be transformed into knowledge that could be applied to optimize functional aspects of the organization, giving the efficiency to be competitive with respect to other organizations and to face the constant change.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
11

Granell, Ruiz Rafael. "Análisis del flujo ambiental y propuesta metodológica para simulaciones CFD aplicadas a la ventilación natural de invernaderos." Doctoral thesis, Universitat Politècnica de València, 2014. http://hdl.handle.net/10251/37194.

Full text
Abstract:
El cultivo protegido bajo invernadero tiene altos costes energéticos derivados de la ventilación forzada. En cambio, la ventilación natural puede ser una solución barata que reduzca el consumo energético. No obstante, un diseño que permita la ventilación natural del invernadero supone un reto debido a la complejidad del fenómeno físico. Frente a otros métodos de diseño, como los métodos experimentales o analíticos, en los últimos tiempos la dinámica de fluidos computacional (CFD por sus siglas en inglés) se ha convertido en la herramienta más utilizada para estudiar este tipo de fenómenos, gracias a su relativo bajo coste y a la rapidez en la obtención de resultados. No obstante, los modelos CFD deben refrendarse mediante validaciones realizadas a través de datos experimentales. Un análisis bibliográfico detallado del uso de la CFD aplicada a invernaderos muestra, en general, que los trabajos carecen de suficientes datos experimentales, seguramente debido al alto coste de los sensores para adquirirlos y la dificultad que conlleva el trabajo en condiciones de campo. Además, se observa que las simulaciones CFD en invernaderos no se realizan con un procedimiento sistematizado. Por ello, la presente tesis, por un lado describe un dispositivo y unos métodos sencillos y baratos para obtener datos atmosféricos, y por otro, propone una visión crítica sobre la investigación realizada hasta el momento, con el fin de sistematizar la manera de generar modelos CFD aplicados a la ventilación natural de invernaderos. Finalmente, la tesis se complementa con un ejemplo sobre un caso práctico. Para ello, en primer lugar, se realizó una revisión bibliográfica de las diferentes guías de buenas prácticas en diferentes campos de la tecnología principalmente en edificación, para sistematizar y adaptar las recomendaciones para generar modelos CFD en invernaderos. En segundo lugar, se desarrolló un sistema de adquisición de datos sencillo, consistente en una red de sensores, que permite medir simultáneamente la velocidad y dirección de viento en 20 puntos. Este sistema de sensores fue calibrado y probado en campo satisfactoriamente obteniendo una precisión similar a los anemómetros comerciales con un precio 30 veces superior. En tercer lugar, se generaron 24 modelos del flujo de aire alrededor del invernadero, resultantes de la combinación de cuatro modelos de turbulencia (k- ¿; RNG k-¿; k-¿ y RSM); dos esquemas de discretización (primer orden y segundo orden) y tres velocidades de viento exterior (3; 3,5 y 4 m/s) con el fin de analizar sus diferencias y demostrar sus ventajas e inconvenientes. Por este motivo, en cuarto lugar, se comprobó su capacidad de ajustarse a los datos de campo, validando los modelos con un análisis de regresión lineal sobre los datos experimentales. Con este estudió se reveló que los modelos SST k-¿ y el RSM (segundo orden) son los que mejor representan el flujo de ventilación y se demostró que el modelo k-¿ estándar (primer orden), el más utilizado en la bibliografía, no sólo ofrece resultados diferentes al resto de modelos, sino que su rendimiento es pobre para predecir el flujo de ventilación.<br>Granell Ruiz, R. (2014). Análisis del flujo ambiental y propuesta metodológica para simulaciones CFD aplicadas a la ventilación natural de invernaderos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/37194<br>TESIS
APA, Harvard, Vancouver, ISO, and other styles
12

Sáez, Moreno Matías Eduardo. "Análisis sismoestratigráfico del cenozoico en sector Norte de Isla Grande de Tierra del Fuego, Cuenca de Magallanes: Integración de datos de subsuelo y afloramientos." Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/145846.

Full text
Abstract:
Geólogo<br>El presente trabajo corresponde a un estudio sismoestratigráfico efectuado en la porción norte de la Isla de Tierra del Fuego, abarcando un área cercana a los 4300 km2 desde la costa norte de Bahía Inútil hasta la costa atlántica. Ésta se analiza mediante datos de afloramientos, perfiles sísmicos y registros de pozos, centrándose en los estratos cenozoicos de la Cuenca de Magallanes. Esto permitió entender la relación entre el mapa litológico del lugar y su relación con las unidades sismoestratigráficas descritas. Producto de ello, se corroboró que las primeras tres formaciones de este estudio (Leña Dura, Bautismo y Discordia) calzan de excelente manera con lo descrito por Barwick (1949) y Céspedes (1957), pero que desde la Formación Santa Clara hasta la Formación Filaret, existe un desfase en dirección noreste de todas las formaciones suprayacentes. Por otro lado, se propone un modelo de depositación de las formaciones a través de estratigrafía de secuencias. Esto facilitó el reconocimiento de las discordancias y superficies de máxima inundación y regresión. A partir de ello, se plantean 10 unidades sismoestratigráficas interpretadas como secuencias de 3er orden, controladas por cambios eustáticos y variaciones en la tasa de subsidencia tectónica. Durante el Eoceno tardío, las primeras tres secuencias, donde están involucradas las formaciones Leña Dura, Bautismo y Discordia, están asociadas a ambientes de talud y piso de cuenca, atestiguando una progresiva somerización de los ambientes deposicionales, para luego emerger posiblemente a inicios del Oligoceno, hecho registrado en la Formación Santa Clara. El aumento en la tasa de sedimentación habría depositado las arcillolitas progradantes de la Formación Puerto Nuevo durante una regresión forzada, expresada en la cuarta y quinta megasecuencia. Esto propició las condiciones para la posterior sedimentación de las areniscas arcillosas de la Formación Río del Oro. En el Mioceno, habría acontecido una segunda regresión forzada relevante en la cuenca, que se habría dado en ambientes marinos más someros, depositando las secuencias 7 y 8 que conforman dos ciclos relacionados a la Formación Brush Lake. Finalmente, la somerización generada por la menor flexura cortical dio paso a los estratos marinos someros a continentales de las formaciones Filaret y Palomares. Asimismo, se construyó un diagrama de Wheeler con los estratos reconocidos, los que ayudaron a generar una curva con los posibles cambios relativos costeros, identificándose tres ciclos principales. Éstos indican que las variaciones del nivel base relativo local habrían sido controladas por factores tectónicos locales de subsidencia y orogenia, así como por la aparición y derretimientos de capa de hielos, los que pudieron incidir en las regresiones y transgresiones en la isla y desencadenar rebotes isostáticos.<br>Este trabajo ha sido financiado por ENAP Magallanes
APA, Harvard, Vancouver, ISO, and other styles
13

Arias, Trujillo Milagros. "Aplicación del diagrama causa-efecto para identificar los principales riesgos ante un posible siniestro en el planeamiento de una auditoría de procesos." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2008. https://hdl.handle.net/20.500.12672/12652.

Full text
Abstract:
Muestra cómo el diagrama causa efecto puede resultar eficiente al momento de identificar los riesgos críticos de un proceso durante la etapa de planeamiento de una auditoría de Procesos, para que así el programa de auditoría se pueda focalizar en aquellos riesgos que se considerarían los más críticos. Tenemos que existen muchos marcos de referencia, normas, modelos y metodologías para el análisis e identificación de riesgos, así como también existen diversas herramientas que nos facilitan tales tareas. El uso de tales herramientas para la identificación de riesgos depende de la realidad de cada organización, utilizando muchas veces más de una herramienta. Los temas presentados en la tesina se alinean a los nuevos enfoques de procesos y riesgos, que hoy en día están tomando muchas organizaciones, como consecuencia de la globalización, que exige que las empresas sean más eficientes.<br>Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO, and other styles
14

Ayala, Gaspar Sindy Annetty, Orozco Paula Lisbeth Ramirez, and Gutierrez Luis Enrique Ulco. "Aplicación de herramientas de productividad y mejora en el proceso de ensamblaje de mangueras hidráulicas en la empresa Contix S.A." Bachelor's thesis, Universidad Ricardo Palma, 2015. http://cybertesis.urp.edu.pe/handle/urp/1293.

Full text
Abstract:
La presente tesis buscó analizar y aplicar herramientas de productividad y mejora en el proceso de ensamblaje de mangueras hidráulicas en la empresa Contix S.A. La propuesta de mejora continua tuvo como objetivos: reducir los tiempos de entrega del producto final del proceso de ensamblaje; analizar, identificar y mejorar las demoras en los tiempos de operación, proponer una adecuada distribución de planta y minimizar las fallas de las máquinas. Además, se utilizó técnicas de ingeniería, como por ejemplo; diagrama de actividades, diagrama de flujo, diagrama de recorrido. También el estudio de tiempo es fundamental para establecer los tiempos necesarios para cada operación. Con estos métodos y herramientas de ingeniería se logró cumplir con el tiempo de entrega de los productos ensamblados y tener una distribución de planta ordenada que permitió una mayor fluidez de los operarios y del producto. Como resultado más importante se obtuvo un aumento en la productividad de 52%, consiguiendo reducir el tiempo de entrega del producto. Por consiguiente, aumentando la satisfacción del cliente. The following thesis seeks to analyze and apply productivity tools, in order to improve the assembly process of hydraulic hoses in the Company Contix S.A. The improvement proposal continue aims to reduce the delivery time of the final product of the assembly process; analyze, identify and improve the delays in the operation times. To propose an appropriate distribution of plant and to minimize the machines’ failures. In addition, engineering techniques will be used, such as; Activity Diagram (UML), Flow Diagram (or Flowchart), Circuit Diagram. It is also crucial the Study of time for determining the time required for each operation. These methods and engineering tools will allow to comply with the assembled products’ delivery time and also have an orderly distribution plant allowing greater fluidity of operators and product. As the most important result, an improved productivity of 52% will be achieved, reducing the delivery time of the product. As a result, the increase of customer satisfaction.
APA, Harvard, Vancouver, ISO, and other styles
15

Yagual, Muñoz Omar Daniel. "Modelación de flujo subterráneo: aplicación en la cuenca del Milagro-Ecuador y análisis de pozo en subcuenca del río Suquía." Master's thesis, Universidad Nacional de Córdoba. Facultad de Ciencias Exactas, Físicas y Naturales, 2015. http://hdl.handle.net/11086/2760.

Full text
Abstract:
Tesis (MCI-Mención Recursos Hídricos)--FCEFN-UNC, 2016<br>Selecciona una subcuenca donde se modelaron escenarios potenciales, como el incremento del consumo, cambio en el uso del agua subterránea, contaminación del acuífero. Además se planteó un escenario para remediación.
APA, Harvard, Vancouver, ISO, and other styles
16

Ríos, Ramos Franklin G. "Diseño Organizacional: apuntes teóricos y casos." Universidad Peruana de Ciencias Aplicadas - UPC, 2006. http://hdl.handle.net/10757/272606.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Sánchez, Gómez Luis Alberto. "Modelado de un sistema workflow configurable para la gestión de requerimientos en las áreas de servicios de una empresa." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2011. https://hdl.handle.net/20.500.12672/13889.

Full text
Abstract:
En el presente trabajo de investigación se propone el modelado de un sistema workflow configurable para la gestión de requerimientos en las áreas de servicio de una empresa, con lo que se espera que se optimice el proceso de atención de requerimientos, automatizando las actividades más críticas para la empresa. Los conceptos, técnicas y arquitectura de desarrollo que se utilizaran en el proceso de modelado del sistema estarán basados en los estándares que propone la WfMC (Workflow Management Coalition) que se utilizan actualmente en el desarrollo de sistemas workflow, con lo que se busca obtener un sistema que sea flexible y configurable (Proceso de negocio), de fácil implementación y mantenimiento en las áreas de la empresa. A lo largo del desarrollo del presente trabajo se irán presentando los diagramas correspondientes a las fases de análisis y diseño del sistema, en los que se sustentará todo el modelado del mismo. Como resultado esperado se busca obtener el modelado de un sistema centralizado para la atención de requerimientos que sea configurable y de amplio uso en las áreas de la empresa, además de mejorar los indicadores de atención de requerimientos en la empresa estableciendo un estándar en el proceso de atención optimizando el uso de recursos y sobre todo del tiempo de atención.<br>Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO, and other styles
18

Chumbe, Nolasco Victor Engels. "Implementación de un sistema workflow para la automatización del proceso de gestión de prevención de lavado de activos en una entidad bancaria." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2016. https://hdl.handle.net/20.500.12672/13899.

Full text
Abstract:
Propone la implementación de un sistema workflow para la automatización del proceso de gestión de prevención de lavado de activos en una entidad bancaria. Este sistema proporciona el soporte para cumplir con la normativa impartida por la Superintendencia de Banca, Seguros y AFP (SBS) en relación a la identificación y notificación de clientes que tengan la condición de clientes sensibles. Se investiga acerca del estado del arte de los sistemas workflow y las principales técnicas para el modelamiento de workflow: Diagramas de Actividades UML 2.4.1, Redes de Petri, Event- Driven Process Chain o Cadena de Procesos Impulsada por Eventos (CPE) y Business Process Model and Notation (BPMN). Se realiza una evaluación y un análisis comparativo de las técnicas investigadas y de los resultados conseguidos y se escoge el modelamiento de workflow aplicando diagramas de actividades UML 2.4.1 como la técnica más adecuada para el proyecto. Finalmente, se implementa el sistema de acuerdo a la metodología para la atención de proyectos y tareas en el ciclo de vida productivo de aplicaciones de la entidad bancaria.<br>Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO, and other styles
19

Díaz, Mendoza Nestor Esteban. "Rediseño de procesos en la mesa de partes física de la Corte Superior de Justicia de Lima para la implementación del expediente judicial electrónico y la mesa de partes electrónica." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2021. https://hdl.handle.net/20.500.12672/16988.

Full text
Abstract:
El presente trabajo de suficiencia profesional detalla el rediseño de los procesos en la Mesa de Partes Física de la Corte Superior de Justicia de Limacon relación ala recepción de documentos presentados partes interesadas en un proceso judicial, para lo cual se utilizó como metodología el Ciclo de vida del Business Project Managment – BPM proporcionado por Bernhard Hitpass en su libro “Manual de Referencia y Guía Práctica – 5ta Edición”. El principal objetivo de este rediseño es alinear el proceso de recepción de documentos e incorporar nuevos procesos a la mesa de partes en aras de la Implementación del Expediente Judicial Electrónico y la Mesa de Partes Electrónica, lo que logró un gran cambio dentro del Poder Judicial, consistente en pasar de un trabajo tradicional basado en documentación física a un trabajo en formato digital, lo que permitió que los procesos judiciales sean más céleres y transparentes, brindando una justicia oportuna y al alcance de todos. Asimismo, la Mesa de Partes Electrónica es un mecanismo fundamental, en la actual situación de emergencia sanitaria que atraviesa el país, para que los usuarios continúen presentando sus documentos con el uso del internet, sin la necesidad de apersonare a las mesas de partes física exponiendo su salud.
APA, Harvard, Vancouver, ISO, and other styles
20

Mallqui, Parra Franco Ernesto. "Implementación de la mesa de partes electrónica para la presentación de documentos judiciales en el Poder Judicial 2017." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2021. https://hdl.handle.net/20.500.12672/17012.

Full text
Abstract:
Describe la implementación de la mesa de partes electrónica para la presentación de documentos judiciales, este proyecto simplifica la vida a los usuarios litigantes, evitando que se apersonen físicamente a la mesa de partes física del Poder Judicial para la entrega de sus documentos judiciales y/o escritos, como principales beneficios tenemos el ahorro de tiempo, disminución de costos, los documentos judiciales presentados ingresaran de manera inmediata a sus respectivos juzgados. Para la implementación de la Mesa de Partes Electrónica se utilizó la metodología de desarrollo RUP - Proceso Racional Unificado, desarrollado por la empresa Rational Software propiedad de IBM. Los documentos judiciales son presentados en línea de manera segura desde cualquier parte del Perú y extranjero, los 365 días del año, esta solución informática forma parte de la modernización del Poder Judicial el cual contribuye a mejorar el acceso a la justicia de los litigantes, asimismo es una solución ecológica que contribuye a la preservación de medio ambiente gracias a la reducción significativa en el uso de papel y tinta.
APA, Harvard, Vancouver, ISO, and other styles
21

Tovar, Valer Dante Rafael. "Mejora del proceso de gestión de servicios para empresas de taxi usando gestión de procesos de negocio." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2014. https://hdl.handle.net/20.500.12672/8830.

Full text
Abstract:
Publicación a texto completo no autorizada por el autor<br>Dante Rafael Tovar Valer asesor: Mamani Rodriguez, Zoraida Emperatriz Busca aprovechar la disciplina BPM (Gestión de Procesos de Negocio) para lograr una ventaja competitiva a través de la mejora de los procesos en las empresas de servicio de transporte de taxi. Utilizando Bizagi como herramienta para el modelamiento de procesos y simulación. Como resultado se espera obtener un modelo que permita lograr la reducción en el tiempo de atención al cliente, de los costos y los recursos utilizados en los procesos, específicamente en la solicitud de servicio al cliente; de tal forma que las empresas de taxi puedan ofrecer un estándar de calidad.<br>Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO, and other styles
22

Caro, Navarro Ricardo. "Solución digital a la gestión documental y procesos implicados usando tecnología enterprise content management - ECM." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2013. https://hdl.handle.net/20.500.12672/13890.

Full text
Abstract:
El presente trabajo tiene como objetivo explicar la tecnología Enterprise Content Management (ECM) y mostrar una metodología y combinación con la metodología (BPM) para la implementación de esta tecnología aun poco conocida en el PERÚ, si bien es cierto la tendencia hacia la digitalización está creciendo, aun está faltando la importancia del conocimiento en la gestión documental y el apoyo que tiene esto en la gestión de procesos y flujos de trabajo de toda organización. La correcta y ordenada utilización de los principales componentes de un ECM que son, Captura de documentos(digitalización), administración de ECM( control de acceso, Validaciones, bases de datos), Colaboración (compartir recursos, información y facilidad de trabajar con un grupo de usuarios en conjunto), WCM (administración de contenidos por web), Record Management(administración y control del registro de información que se asocia a cada documento), Distribución y publicación, Componentes de indexación (facilita las búsquedas), Almacenamiento, Administración de Documentos (Organización, clasificación y versiona miento) y Workflows (Diseñar y crear flujos de trabajo para tener un control y validación de su ejecución) conllevan a poder administrar la documentación y procesos de un empresa en forma correcta y organizada, como ejemplo y aplicación a demostrar se tomara dos procesos de una organización siendo estos los proceso de ventas y compras<br>Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO, and other styles
23

Chatzou, Maria 1985. "Large-scale comparative bioinformatics analyses." Doctoral thesis, Universitat Pompeu Fabra, 2016. http://hdl.handle.net/10803/587086.

Full text
Abstract:
One of the main and most recent challenges of modern biology is to keep-up with growing amount of biological data coming from next generation sequencing technologies. Keeping up with the growing volumes of experiments will be the only way to make sense of the data and extract actionable biological insights. Large-scale comparative bioinformatics analyses are an integral part of this procedure. When doing comparative bioinformatics, multiple sequence alignments (MSAs) are by far the most widely used models as they provide a unique insight into the accurate measure of sequence similarities and are therefore instrumental to revealing genetic and/or functional relationships among evolutionarily related species. Unfortunately, the well-established limitation of MSA methods when dealing with very large datasets potentially compromises all downstream analysis. In this thesis I expose the current relevance of multiple sequence aligners, I show how their current scaling up is leading to serious numerical stability issues and how they impact phylogenetic tree reconstruction. For this purpose, I have developed two new methods, MEGA-Coffee, a large scale aligner and Shootstrap a novel bootstrapping measure incorporating MSA instability with branch support estimates when computing trees. The large amount of computation required by these two projects was carried using Nextflow, a new computational framework that I have developed to improve computational efficiency and reproducibility of large-scale analyses like the one carried out in the context of these studies.<br>Uno de los principales y más recientes retos de la biología moderna es poder hacer frente a la creciente cantidad de datos biológicos procedentes de las tecnologías de secuenciación de alto rendimiento. Mantenerse al día con los crecientes volúmenes de datos experimentales es el único modo de poder interpretar estos datos y extraer conclusiones biológicos relevantes. Los análisis bioinformáticos comparativos a gran escala son una parte integral de este procedimiento. Al hacer bioinformática comparativa, los alineamientos múltiple de secuencias (MSA) son con mucho los modelos más utilizados, ya que proporcionan una visión única de la medida exacta de similitudes de secuencia y son, por tanto, fundamentales para inferir las relaciones genéticas y / o funcionales entre las especies evolutivamente relacionadas. Desafortunadamente, la conocida limitación de los métodos MSA para analizar grandes bases de datos, puede potencialmente comprometer todos los análisis realizados a continuación. En esta tesis expongo la relevancia actual de los métodos de alineamientos multiples de secuencia, muestro cómo su uso en datos masivos está dando lugar a serios problemas de estabilidad numérica y su impacto en la reconstrucción del árbol filogenético. Para este propósito, he desarrollado dos nuevos métodos, MEGA-café, un alineador de gran escala y Shootstrap una nueva medida de bootstrapping que incorpora la inestabilidad del MSA con las estimaciones de apoyo de rama en el cálculo de árboles filogéneticos. La gran cantidad de cálculo requerido por estos dos proyectos se realizó utilizando Nextflow, un nuevo marco computacional que se ha desarrollado para mejorar la eficiencia computacional y la reproducibilidad del análisis a gran escala como la que se lleva a cabo en el contexto de estos estudios.
APA, Harvard, Vancouver, ISO, and other styles
24

Garrido, Baserba Manel. "Development of an environmental decision support system for the selection and integrated assessment of process flow diagrams in wastewater treatment." Doctoral thesis, Universitat de Girona, 2013. http://hdl.handle.net/10803/108953.

Full text
Abstract:
The wastewater treatment plays an important role in the maintenance of natural water resources. However, regardless of the technology used or the level of treatment required, the treatment plants of the XXI century are highly complex systems that not only need to meet technical requirements, but also environmental and economic criteria. In this context, decision support systems for environmental domains (English, Environmental Decision Support Systems or EDSS) are configured as an effective tool to support the selection and evaluation of integrated water treatment alternatives. The EDSS designed can be defined as interactive software, flexible and adaptable, which links the numerical models / algorithms, techniques and environmental ontologies, knowledge-based environment, and is capable of supporting decision making, either in choosing between different alternatives, improving potential solutions, or in the integrated assessment using methodologies ranging from environmental (Life Cycle Analysis) to economic<br>La depuració d’aigües residuals juga un paper fonamental en el manteniment dels recursos hídrics naturals. Tanmateix, sigui quina sigui la tecnologia emprada o el nivell de depuració requerit, les plantes de tractament del segle XXI són sistemes d’alta complexitat, que no només han de satisfer requeriments de tipus tècnic, sinó també de tipus ambiental i econòmic. En aquest context, els sistemes de suport a la decisió en dominis ambientals (en anglès, Environmental Decision Support Systems o EDSS) es configuren com una eina eficaç per donar suport a la selecció i a l’avaluació integrada de diferents alternatives de depuració d’aigües. El EDSS dissenyat pot definir-se com un programari interactiu, flexible i adaptable, que vincula els models numèrics/algoritmes amb tècniques basades en el coneixement i ontologies ambientals, i que és capaç de donar suport a la presa de decisió, ja sigui en l’elecció entre diferents alternatives, millorant una solució, o bé en l’avaluació integrada a través de metodologies ambientals (Anàlisi de Cicle de Vida) i econòmiques
APA, Harvard, Vancouver, ISO, and other styles
25

Fuentes-Andino, Diana. "Flood Hazard Assessment in Data-Scarce Basins : Use of alternative data and modelling techniques." Doctoral thesis, Uppsala universitet, Institutionen för geovetenskaper, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-317332.

Full text
Abstract:
Flooding is of great concern world-wide, causing damage to infrastructure, property and loss of life. Low-income countries, in particular, can be negatively affected by flood events due to their inherent vulnerabilities. Moreover, data to perform studies for flood risk management in low-income regions are often scarce or lacking sufficient quality. This thesis proposes new methodologies and explores the use of unconventional sources of information in flood hazard assessment in areas where the quantity or sufficient quality of traditional hydrometrical data are lacking.  One method was developed to account for errors in spatially averaged rainfall, from a sparse rain-gauge network, used as input to a rainfall-runoff model. A spatially-averaged and event-dependent rainfall depth multiplier led to improvements of the hydrographs at calibration. And by using a distribution of the multiplier, identified from previous events in the catchment, improvement in predictions could also be obtained. A second method explored the possibility of reproducing an unmeasured extreme flood event using a combination of models, post-event data, precipitation and an uncertainty-analysis framework. This combination allowed the identification of likelihood-associated parameter sets from which the flood hazard map for the extreme event could be obtained. A third and fourth study made at the regional scale explored the value of catchment similarities, and the effects of climate on the hydrological response of catchments. Flood frequency curves were estimated for 36 basins, assumed ungauged, using regional information of short flow records, and local information about the frequency of the storm. In the second regional study, hydro-climatic information provided great value to constrain predictions of series of daily flow from a hydrological model. Previously described methods, used in combination with unconventional information within an uncertainty analysis, proven to be useful for flood hazard assessment at basins with data limitations. The explored data included: post-event measurements of an extreme flood event, hydro-climate regional information and local precipitation data. The methods presented in this thesis are expected to support development of hydrological studies underpinning flood-risk reduction in data-poor areas.<br>Extremt höga vattenflöden ställer till stora problem i hela världen. De skadar infrastruktur och egendom och orsakar död. Framför allt kan låg- och medelinkomstländer vara väldigt sårbara för extrema flöden. I dessa länder saknas dessutom ofta data som behövs för att kunna bedöma översvämningsrisker, eller så finns bara data av dålig kvalitet. Denna avhandling föreslår nya metoder som använder okonventionella informationskällor vid bedömning av översvämningsrisker i områden där traditionella hydrologiska data saknas eller har otillräcklig kvalitet. En metod utvecklades för att ta hänsyn till fel i rumslig medelnederbörd beräknad från ett glest nät av nederbördsmätare att användas som indata i en nederbörds-avrinningsmodell. Användning av en multiplikator för medelvärdesbildad nederbörd, i tid och rum, för enskilda högflödestillfällen ledde till förbättrad modellkalibrering. Genom att använda multiplikatorfördelningar, identifierade från tidigare högflödestillfällen i avrinningsområdet, kunde också prognoser förbättras. En andra metod använde sig av möjligheten att reproducera ett extremt högflöde inom ramen för en osäkerhetsanalys med hjälp av en kombination av modeller, nederbördsdata och data som uppmätts i efterhand. Denna kombination gjorde det möjligt att identifiera parametervärdesuppsättningar med hophörande sannolikheter ur vilka det gick att erhålla en översvämningskarta för det höga flödet. En tredje och fjärde studie i regional skala utforskade värdet av likheter mellan avrinningsområden och hur områdenas hydrologiska gensvar beror av klimatet. Kurvan för kumulativa högflödesfrekvenser (flood frequency curve, FFC) kunde skattas med hjälp av lokal nederbördsinformation och regional information om korta tidsserier av vattenföring från 36 avrinningsområden som antogs sakna vattenföringsdata. I den andra regionala studien visade sig hydroklimatisk information av värde för att avgränsa godtagbara prognoser för daglig vattenföring från en hydrologisk modell. Tidigare beskrivna metoder, använda tillsammans med okonventionell information inom ramen för en osäkerhetsanalys, visade sig vara användbara för att bedöma översvämningsrisker i avrinningsområden med databegränsningar. Bland utforskade data fanns: mätningar i efterhand av ett extremt högflöde, hydroklimatisk regional information och lokala nederbördsmätningar. Metoderna i denna avhandling förväntas kunna stödja utvecklingen av hydrologiska studier av höga flöden och översvämningar i områden med bristande datatillgång.<br>Las inundaciones ocasionan daños a la infraestructura, propiedad y pérdida de vidas a nivel mundial. Los países en desarrollo son los más vulnerables a inundaciones, la calidad y cantidad de datos hidro-climatológicos disponibles en los mismos dificulta el desarrollo de estudios para la evaluación de riesgo a esta amenaza. Esta tesis propone métodos en la que se hace uso de fuentes de información no-convencionales para la evaluación de riesgo por inundación en regiones con datos escasos o limitados. Un método considera el error asociado a la precipitación promedio sobre cuencas en modelos lluvia-escorrentía como un factor multiplicador del histograma del evento. El uso de la precipitación promedio junto con una distribución probabilística del factor multiplicador como datos de entrada a un modelo de lluvia-escorrentía mejoraron los hidrogramas durante los periodos de calibración y predicción. Un segundo método exploró la posibilidad de reproducir un evento extremo de inundación usando una combinación de modelos hidrológicos e hidráulico, un análisis de incertidumbre, datos hidrométricos recopilados después del evento y datos de precipitación registrados durante-el-evento. Dicha combinación permitió la identificación de los parámetros de los modelos y la elaboración un mapa de amenaza por inundaciones para dicho evento. Adicionalmente, se estimaron curvas de frecuencia de inundaciones para 36 cuencas, asumidas no aforadas, mediante un método de regionalización que usa registros de caudal de corta duración disponibles en la región. Dichas curvas fueron extendidas haciendo uso de información local sobre la frecuencia de las tormentas. Se encontró que la información hidro-climatológica tiene un gran valor para reducir el rango de incertidumbre de las simulaciones de caudal diaria de un modelo hidrológico. Los métodos anteriores se usaron en combinación con información no-convencional dentro de un análisis de incertidumbre y han probado su utilidad para la evaluación de riesgo por inundaciones en cuencas con registros escasos o limitados. Los datos utilizados en esta tesis incluyen datos hidrométricos recopilados pasado el evento, registros hidro-climatológicos regionales y precipitación local. Se espera que los métodos presentados aquí contribuyan al desarrollo de estudios hidrológicos importantes para la reducción del riesgo por inundaciones en regiones con déficit de registros hidro-climatológicos.
APA, Harvard, Vancouver, ISO, and other styles
26

MONROY, VEGA JORGE ALBERTO, and VEGA JORGE ALBERTO MONROY. "“APLICACIÓN DE LA HERRAMIENTA AMFE´s PARA CONTROLAR LOS PROCESOS DE CALIDAD DENTRO DEL DEPARTAMENTO DE EMBARQUES”." Tesis de Licenciatura, JORGE ALBERTO MONROY VEGA, 2017. http://hdl.handle.net/20.500.11799/66584.

Full text
Abstract:
El proyecto realizado se basa en la aplicación y evaluación de los procesos operativos dentro del Centro de Distribución Chedraui, utilizando la herramienta de calidad AMFE´s (Aplicación Modo Fallas y Efectos), desarrollando el análisis para el área de Embarques. Manteniendo el control de calidad evitando desviaciones del proceso y áreas de oportunidad desarrollando estrategias y modificaciones del proceso para alcanzar un nivel de servicio considerable, así mismo entregar la mercancía a las diferentes tiendas que se encuentran dentro de la República Mexicana.<br>Los indicadores fueron utilizados y comparados para aplicar un mejor control entre la forma de evaluación de los procesos dentro de la empresa, puesto que estos indicadores permiten observar la forma correcta para la aplicación y desarrollo de las actividades manteniendo un control de calidad dentro del área correspondiente. El proyecto describe la situación en la que se encontraba el área de Embarques por las desviaciones a los procesos. Se plantea la herramienta de calidad AMFE´s, estableciendo objetivos generales y objetivos específicos del proyecto, así como la justificación y alcances. Al aplicar de la herramienta de calidad se plasman de acuerdo a lo sucedido en el avances del proyecto, los indicadores y las incidencias dentro del centro de distribución Chedraui en el área de Embarques fueron controlados, así mismo el índice de error y mermas para la entrega de la mercancía, en tiempo y forma.
APA, Harvard, Vancouver, ISO, and other styles
27

Huamán, Bustamante Jesús Omar. "Implementación de un controlador difuso de temperatura prototipo usando la inferencia difusa de Takagi Sugeno." Universidad Nacional de Ingeniería. Programa Cybertesis PERÚ, 2007. http://cybertesis.uni.edu.pe/uni/2007/huaman_bj/html/index-frames.html.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Diván, Mario José. "Enfoque integrado de procesamiento de flujos de datos centrado en metadatos de mediciones." Tesis, 2011. http://hdl.handle.net/10915/4198.

Full text
Abstract:
Cuando se trata de tomar decisiones a un nivel ingenieril, medir no es una posibilidad sino una necesidad; representa una práctica sistemática y disciplinada por la cual se puede cuantificar el estado de un ente. Si hay un aspecto que se debe tener en claro en medición, es que para comparar mediciones diferentes las mismas deben ser consistentes entre sí, esto es, deben poseer la misma escala y tipo de escala además de obtenerse bajo métodos de medición y/o reglas de cálculos equivalentes. Los marcos de medición y evaluación representan un esfuerzo, desde la óptica de cada estrategia, por formalizar el modo de definir las métricas, sus objetivos, entre otros aspectos asociados, a los efectos de garantizar la repetitividad y consistencia en el proceso de medición que sustentan. Existen aplicaciones capaces de procesar flujos de mediciones en línea, pero el inconveniente principal con el que se enfrentan, es que no contienen información con respecto al significado del dato que están procesando. Para este tipo de aplicaciones, la medición es un dato, es decir, una forma de representar un hecho captado, careciendo de información sobre el concepto al que se asocian o bien, el contexto en el cual es obtenida dicha medición. Los dispositivos de medición, están en general desarrollados para captar una medida mediante un método dado, y en la mayoría de los casos, la forma de obtener dicha medida para su posterior procesamiento en otros entornos (ordenadores de escritorio, móviles, etc.), está en función de servicios o accesorios provistos por el fabricante. Suponiendo que la totalidad de las mediciones, provenientes de diferentes dispositivos, pudieran ser incorporadas en un mismo canal de transmisión, pocos son los entornos de procesamiento de flujos de datos que incorporan comportamiento predictivo. En aquellos que se incorpora comportamiento predictivo, ninguno de los analizados se sustenta en una base conceptual, que permita contrastar una medida contra la definición formal de su métrica. Esto último, incorpora un serio riesgo de inconsistencia, que afecta directamente al proceso de medición y en consecuencia, a los posteriores análisis que en base a estos datos se realicen. Nuestra Estrategia de Procesamiento de Flujos de Datos centrado en Metadatos de Mediciones (EIPFDcMM), se focaliza en permitir la incorporación de fuentes de datos heterogéneas, cuyos flujos de mediciones estructurados y enriquecidos con metadatos embebidos basados C-INCAMI, permitan realizar análisis estadísticos de un modo consistente a los efectos de implementar un comportamiento detectivo y a su vez, permitan incorporar información contextual a las mediciones, para enriquecer la función de clasificación con el objeto de implementar el comportamiento predictivo. Tanto la implementación del comportamiento detectivo como del predictivo tendrán asociados mecanismos de alarma, que permitirán proceder a la notificación ante la eventual identificación de una zona de riesgo. De este modo, se pretende garantizar la repetitividad y consistencia en el proceso de medición que sustentan.
APA, Harvard, Vancouver, ISO, and other styles
29

Brizuela, Jerónimo. "Flujos por curvatura en datos iniciales para las ecuaciones de Einstein : convexidad." Bachelor's thesis, 2022. http://hdl.handle.net/11086/23369.

Full text
Abstract:
Tesis (Lic. en Física)--Universidad Nacional de Córdoba, Facultad de Matemática, Astronomía, Física y Computación, 2022.<br>En este trabajo estudiamos las propiedades de distintos flujos geométricos dependientes de la curvatura media en variedades Riemannianas. Nos concentramos en la preservación de convexidad de superficies que evolucionan bajo este tipo de flujos y mostramos que esta propiedad se cumple, en espacios euclídeos, para una gran clase de los mismos. Hacemos hincapié en el Flujo de Curvatura Media Inversa y mostramos las dificultades que surgen al intentar demostrar la preservación de la convexidad para el caso general en variedades Riemannianas.<br>In this work we study the properties of different geometric flows dependent on the mean curvature in Riemannian manifolds. We focus on convexity preservation of evolving surfaces by this type of flow and we show that this property holds, in Euclidean spaces, for a large class of these. We study in great detail the Inverse Mean Curvature Flow and show the difficulties that arise when trying to prove convexity preservation for the general case in Riemannian manifolds.<br>Fil: Brizuela, Jerónimo. Universidad Nacional de Córdoba. Facultad de Matemática, Astronomía, Física y Computación; Argentina.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography