Tesis sobre el tema "Banco de dados - Gerenciamento"
Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros
Consulte los 50 mejores tesis para su investigación sobre el tema "Banco de dados - Gerenciamento".
Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.
También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.
Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.
Schlöttgen, Alexandre. "Modelo de gerenciamento de versões para evolução de Data Warehouses". reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2004. http://hdl.handle.net/10183/6556.
Texto completoGiaretta, Joacir. "Gerenciamento de documentação técnica para ambientes de engenharia/CAD com suporte a versões". reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2001. http://hdl.handle.net/10183/1730.
Texto completoVelazco, Fontova Marta Ines. "Ferramentas para o gerenciamento de informação nebulosa em banco de dados". [s.n.], 1998. http://repositorio.unicamp.br/jspui/handle/REPOSIP/261830.
Texto completoDissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação
Made available in DSpace on 2018-07-23T09:19:13Z (GMT). No. of bitstreams: 1 VelazcoFontova_MartaInes_M.pdf: 6154362 bytes, checksum: 23b33dd3f2bf8751efa8e89f413af634 (MD5) Previous issue date: 1998
Resumo: Esta dissertação, apresenta o uso da lógica nebulosa para a extensão do modelo relacional de bancos de dados, com o objetivo de permitir a representação e manipulação de informação incompleta e imprecisa, não permitida nos modelos de banco de dados convencionais. Também é apresentado um estudo das diferentes abordagens em bancos de dados nebulosos, é proposto um novo modelo que integra tais abordagens e adiciona novos recursos de manipulação de dados ao gerenciador. Completando o conjunto, é apresentada uma arquitetura com o objetivo de implementar o modelo proposto usando sistemas gerenciadores de bancos de dados convencionais existente no mercado. No capítulo 5, o modelo é implementado usando o Borland Delphi 2.0 como gerenciador de suporte. Vale realçar que, como todas as funções lógicas são armazenadas em relações, os operadores lógicos podem ser redefinidos no instante de uma sessão de consultas. Sendo assim, uma ferramenta importante para aqueles que experimentam lógicas diversas usando o intervalo [0,1]
Abstract: This dissertation concerns about the use of fuzzy logic for extending the relational database model in order to represent and manipulate incomplete and inaccurate information, which is impossible in conventional models. It¿ also presents in this work an study of the different approaches of fuzzy database, a model that integrates them and adds new recourses for data manipulation. An architecture of the model is defined to permit a Database Management System (DBMS) in the market, to be the host for the implementation. In chapter 5, this new model is implemented on Borland Delphi 2.0. It¿s important to emphasize that, as all logical functions are stored in relations, the logical operators can be redefined in a query section. Obviously, they are important tools for the people who experiment non-conventional logic in [0,1]. Interval
Mestrado
Automação
Mestre em Engenharia Elétrica
Ferrasi, Emerson Carlos Sarti [UNESP]. "Desenvolvimento de sistema para gerenciamento de dados de pesquisa". Universidade Estadual Paulista (UNESP), 2013. http://hdl.handle.net/11449/108512.
Texto completoOs avanços biotecnológicos vêm contribuindo para a excelência na qualidade das pesquisas científicas, bem como para o aumento exponencial dos dados gerados. A análise e interpretação dos dados obtidos em pesquisa científica é uma atividade essencial quando se busca gerar conhecimento biológico de excelência. A informática vem se destacando como uma ferramenta essencial no gerenciamento de dados e processos administrativos. Os órgãos públicos de financiamento têm estimulado a colaboração entre grupos de pesquisa situados em instituições diferentes, muitas vezes bem distantes geograficamente, possibilitado a criação de “grupos de pesquisa virtuais”, onde a troca de informações e discussão de resultados se faz de maneira tão eficiente quanto o seria em grupos reunidos in loco. É comum na pesquisa científica, a condução de diferentes análises laboratoriais em uma mesma casuística, delineando projetos com abordagens diferentes. Entretanto, por repetidas vezes, tais dados, embora sejam referentes à mesma casuística, nem sempre são analisados em conjunto. Tal situação representa perda de informações biológicas preciosas na construção do conhecimento científico. Nesse contexto, faz-se importante o desenvolvimento de ferramentas computacionais para o armazenamento e gerenciamento dos dados gerados, de forma a otimizar as análises dos resultados obtidos ao longo de pesquisas científicas diversas, porém conduzidas em uma mesma amostragem. O presente estudo teve como objetivo principal o desenvolvimento de um Software para o gerenciamento de amostras geradas a partir de Projetos de Pesquisa na Área de Ciências da Saúde. O desenvolvimento do Sistema teve como ponto de partida a análise de requisitos dos dados necessários para elaboração de um banco de dados, bem como os procedimentos de acesso às informações. Os pesquisadores envolvidos nos projetos científico foram consultados ...
The biotechnological advances have contributed to the excellence in the quality of scientific research, as well as the exponential growth of data generated. The analysis and interpretation of data in scientific research is an essential activity when it seeks to generate biological knowledge of excellence. Information technology has emerged as an essential tool in data management and administrative processes. Public agencies funding have stimulated collaboration between research groups located in different institutions, often far apart geographically, enabled the creation of virtual research groups, where the exchange of information and discussion of results is done as efficiently as would be gathered in groups spot. It is common in scientific research, conducting various laboratory tests on a single sample, outlining projects with different approaches. However, by repeatedly such data, although they refer to the same sample, are not always analyzed together. This situation represents a loss of valuable biological information in the construction of scientific knowledge. In this context, it is important to develop computational tools for the storage and management of data generated in order to optimize the analysis of the results obtained over various scientific researches, but conducted in the same sample. This study aimed to develop a software for managing samples generated from research projects in the area of Health Sciences Development System had as its starting point the analysis of the data requirements necessary for development of a database, as well as the procedures for access to information. The researchers involved in scientific projects were consulted on the information model to manage. The system developed in this study can be considered an innovative tool in the area of Health Research as it is a software that evolves according to the needs of new research groups and obviate the need for intervention by IT professionals ...
Ferrasi, Emerson Carlos Sarti. "Desenvolvimento de sistema para gerenciamento de dados de pesquisa /". Botucatu, 2013. http://hdl.handle.net/11449/108512.
Texto completoBanca: Regina Celia Baptista Belluzzo
Banca: Célia Regina Nogueira
Resumo: Os avanços biotecnológicos vêm contribuindo para a excelência na qualidade das pesquisas científicas, bem como para o aumento exponencial dos dados gerados. A análise e interpretação dos dados obtidos em pesquisa científica é uma atividade essencial quando se busca gerar conhecimento biológico de excelência. A informática vem se destacando como uma ferramenta essencial no gerenciamento de dados e processos administrativos. Os órgãos públicos de financiamento têm estimulado a colaboração entre grupos de pesquisa situados em instituições diferentes, muitas vezes bem distantes geograficamente, possibilitado a criação de "grupos de pesquisa virtuais", onde a troca de informações e discussão de resultados se faz de maneira tão eficiente quanto o seria em grupos reunidos in loco. É comum na pesquisa científica, a condução de diferentes análises laboratoriais em uma mesma casuística, delineando projetos com abordagens diferentes. Entretanto, por repetidas vezes, tais dados, embora sejam referentes à mesma casuística, nem sempre são analisados em conjunto. Tal situação representa perda de informações biológicas preciosas na construção do conhecimento científico. Nesse contexto, faz-se importante o desenvolvimento de ferramentas computacionais para o armazenamento e gerenciamento dos dados gerados, de forma a otimizar as análises dos resultados obtidos ao longo de pesquisas científicas diversas, porém conduzidas em uma mesma amostragem. O presente estudo teve como objetivo principal o desenvolvimento de um Software para o gerenciamento de amostras geradas a partir de Projetos de Pesquisa na Área de Ciências da Saúde. O desenvolvimento do Sistema teve como ponto de partida a análise de requisitos dos dados necessários para elaboração de um banco de dados, bem como os procedimentos de acesso às informações. Os pesquisadores envolvidos nos projetos científico foram consultados ...
Abstract: The biotechnological advances have contributed to the excellence in the quality of scientific research, as well as the exponential growth of data generated. The analysis and interpretation of data in scientific research is an essential activity when it seeks to generate biological knowledge of excellence. Information technology has emerged as an essential tool in data management and administrative processes. Public agencies funding have stimulated collaboration between research groups located in different institutions, often far apart geographically, enabled the creation of "virtual research groups", where the exchange of information and discussion of results is done as efficiently as would be gathered in groups spot. It is common in scientific research, conducting various laboratory tests on a single sample, outlining projects with different approaches. However, by repeatedly such data, although they refer to the same sample, are not always analyzed together. This situation represents a loss of valuable biological information in the construction of scientific knowledge. In this context, it is important to develop computational tools for the storage and management of data generated in order to optimize the analysis of the results obtained over various scientific researches, but conducted in the same sample. This study aimed to develop a software for managing samples generated from research projects in the area of Health Sciences Development System had as its starting point the analysis of the data requirements necessary for development of a database, as well as the procedures for access to information. The researchers involved in scientific projects were consulted on the information model to manage. The system developed in this study can be considered an innovative tool in the area of Health Research as it is a software that evolves according to the needs of new research groups and obviate the need for intervention by IT professionals ...
Mestre
Almeida, Rodrigo Pinheiro de. "Gerenciamento de dados de proveniência de workflow de bioinformática com banco de dados baseados em grafo". reponame:Repositório Institucional da UnB, 2015. http://dx.doi.org/10.26512/2015.06.D.22029.
Texto completoSubmitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2016-06-07T16:28:08Z No. of bitstreams: 1 2015_RodrigoPinheirodeAlmeida.pdf: 2786870 bytes, checksum: 683fe7a67964204f75f57755f9546e73 (MD5)
Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-12-21T17:01:19Z (GMT) No. of bitstreams: 1 2015_RodrigoPinheirodeAlmeida.pdf: 2786870 bytes, checksum: 683fe7a67964204f75f57755f9546e73 (MD5)
Made available in DSpace on 2016-12-21T17:01:19Z (GMT). No. of bitstreams: 1 2015_RodrigoPinheirodeAlmeida.pdf: 2786870 bytes, checksum: 683fe7a67964204f75f57755f9546e73 (MD5)
Muitos experimentos científicos na bioinformática são executados como workflows computacionais. Algumas vezes para a validação e reconhecimento de um experimento é necessário reexecutá-lo sob as mesmas circustâncias nas quais foi originado. Proveniência de dados diz respeito à origem ou procedência dos dados. Para facilitar o entendimento e análise dos resultados, é interessante ter os dados de proveniência, que detalham e documentam a história e os caminhos dos dados de entrada, do início do experimento até o final. Portanto, neste contexto, a proveniência de dados pode ser aplicada para realizar a rastreabilidade de um experimento. Considerando que uma execução de um workflow pode ser representado por um grafo, como definido no modelo PROV-DM, este documento apresenta uma arquitetura capaz de realizar a proveniência de dados de expe- rimentos científicos na bioinformática de forma automática e armazenamento em bancos de grafo.
Many scientific experiments in bioinformatics are executed as computational work- flows. Sometimes for the validation and recognition of an experiment is need rerun under same circumstances in which it was originated. Date provenance concers the origin data. To facilate the understanding and analysis of the results is interesting to have the source data, detailing and documeting the history and the paths of the input data, the beginning of the experiment until the end. Therefore, in this context, the data provenance can be applied to realize an experiment traceability. Whereas an execution of a workflow can be represented by a graph, as defined in PROV-DM model, this document presents an architecture able to perform the data provenance of iscientif experiments in bioinformatics automatically and storage graph database.
Lima, Liane Carneiro Barbosa. "X-meta : uma metodologia de desenvolvimento de data warehouse com gerenciamento de metadados". Universidade de Fortaleza, 2002. http://dspace.unifor.br/handle/tede/71424.
Texto completoDate Warehousing is a powerful resource for supporting decision-making processes in organizations. It incorporates a Data Warehouse (DW) and modern technologies that process and transform data in accurate and easily accessible information. However, developing DW is a complex process and a costly activity in information system development and management. It requires strategies, which should be specific to the characteristics and needs of the organization where it will be introduced. This dissertation presents a DW development methodology X-Meta. It is addressed to organizations with no tradition in the use of automated decision support systems and can be implanted by the internal employees, without expertise in DW technology but qualified in development of conventional systems and database technology. Moreover, a strategy for creating and managing metadata in an integrated way to the DW development process is proposed. The goal is to capture the organizational knowledge and minimize the problems caused by the mobility of employees within and among organizations. Furthermore, this work describes the application of the X-Meta methodology in a real case study.
Data Warehousing é um recurso poderoso utilizado pelas organizações para suporte ao processo de tomada de decisão. Esta tecnologia incorpora um repositório de dados analítico - Data Warehouse (DW) e tecnologias modernas, que processam e transformam dados em informações confiáveis e facilmente acessíveis. No entanto, desenvolver um DW é um processo complexo e uma atividade cara em desenvolvimento e gerenciamento de sistemas de informações, que requer estratégias adaptadas às características e necessidades da organização onde será implantado. Este trabalho apresenta uma metodologia de desenvolvimento de DW X-Meta. Esta metodologia é direcionada a organizações sem tradição no uso de sistemas automatizados de apoio à decisão e pode ser utilizada pelo pessoal interno da organização, inexperiente na tecnologia de DW, mas capacitado tecnicamente em desenvolvimento de sistemas convencionais e tecnologia de banco de dados. Além disso, uma estratégia para criação e gerenciamento de metadados integrado ao processo de desenvolvimento é proposta, para capturar o conhecimento organizacional e minimizar os problemas causados pela rotatividade dos funcionários, dentro e entre organizações. O presente trabalho também apresenta a aplicação da metodologia X-Meta em um caso real.
Silva, Lidiana Mendes da. "Framework para interface e gerenciamento de bancos de dados". Universidade Federal de Uberlândia, 2009. https://repositorio.ufu.br/handle/123456789/14426.
Texto completoA utilização de bancos de dados específicos para determinado aplicativo não permite ao usuário a substituição do banco de dados ou o compartilhamento com outras bases de informações sem a reconstrução de todo o aplicativo, tornando não trivial a aplicação das soluções propostas na literatura. Isso reduz a interoperabilidade entre os aplicativos de software de diferentes fornecedores de equipamentos biomédicos existentes. Este trabalho descreve o projeto e o desenvolvimento de um framework para interface e gerenciamento de bancos de dados utilizados em aplicações biomédicas. O sistema se caracteriza por permitir que diferentes bancos de dados possam ser utilizados para diferentes aplicativos a fim de armazenar os dados para posteriores análises. O sistema foi projetado utilizando a técnica de orientação a objetos, plug-ins e reflexão, permitindo criar aplicativos capazes de conectarem-se com os diferentes bancos de dados. Os resultados demonstram que o framework permite a coleta e o armazenamento de informações biomédicas por meio de sistemas adaptativos e de plug-ins, minimizando os problemas de falta de compatibilidade entre bancos, as dificuldades de manutenção e melhorando a integração dos mesmos.
Mestre em Ciências
PEREIRA, Renata Costa Guedes. "Uma abordagem para gerenciamento de consistência em um ambiente de banco de dados heterogêneos". Universidade Federal de Pernambuco, 1999. https://repositorio.ufpe.br/handle/123456789/2551.
Texto completoAtualmente, é muito comum nas empresas a distribuição dos dados ao longo dos departamentos e linhas funcionais. Dessa forma, recursos e dados são fragmentados contribuindo para o surgimento das chamadas ilhas de informações . Os dados são organizados e gerenciados por diferentes Sistemas Gerenciadores de Bancos de Dados (SGBDs) de diferentes fornecedores e diferentes sistemas operacionais os quais utilizam diferentes protocolos de rede. Em essência, os dados de uma empresa constituem-se de servidores de bancos de dados de vários fornecedores, legacy systems e fontes de dados relacionais e não relacionais. Infelizmente, estas fontes de dados não têm habilidade para comparar e relacionar dados entre si. Nesta dissertação apresentamos uma metodologia para a resolução de heterogeneidade semântica de fontes de dados heterogêneas. A resolução de heterogeneidade semântica visa determinar precisamente os possíveis relacionamentos entre objetos que modelam informações similares em diferentes bancos de dados componentes. Além disto, uma outra meta é detectar os conflitos nas estruturas representacionais dos objetos que causam problemas durante a integração desses componentes. Por fim, deve ser providenciado o tratamento correto no relacionamento entre esses objetos. Ao contrário de outras propostas para integrar bancos de dados heterogêneos, onde existe a presença de esquemas globais totais ou esquemas globais parciais (sistemas federados), utilizamos o conceito de navegação entre os bancos de dados integrados. Este método trata conflitos de dados apenas quando uma consulta envolve bancos de dados distintos. Ou seja, não existe um tratamento prévio das diferenças para a montagem de esquemas globais. Assim, os conflitos são gerenciados somente quando necessário. Através do conceito de navegação e utilizando a tecnologia de middleware de banco de dados, apresentamos neste trabalho toda a problemática do nosso ambiente e as nossas soluções. Dentre estas podemos destacar: a utilização de tabelas intermediárias para resolver problemas de heterogeneidade de esquemas de um-para-muitos atributos , ou seja, um atributo em um banco de dados corresponde a vários em outro banco de dados. Em segundo lugar, empregamos um método avançado de busca por proximidades para recuperar de um banco de dados informações semelhantes às desejadas pelo usuário, quando o valor exato de um dado informado não pode ser encontrado. Por último, através de um mecanismo especial de checagem de consistência, cada usuário pode definir individualmente os seus desejos de testes de consistência a serem realizados durante a navegação entre bancos de dados. Através desta tecnologia, provemos ao usuário uma maior segurança quando o mapeamento entre valores de dados correspondentes não pode ser feito automaticamente pelo sistema
Montenegro, Gonzalez Sahudy. "Modelo para o gerenciamento de bancos de dados de imagens". [s.n.], 2003. http://repositorio.unicamp.br/jspui/handle/REPOSIP/261246.
Texto completoTese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação
Made available in DSpace on 2018-08-03T18:56:52Z (GMT). No. of bitstreams: 1 MontenegroGonzalez_Sahudy_D.pdf: 6989590 bytes, checksum: 9dadd86c6c3041d0657431fd5812c5b5 (MD5) Previous issue date: 2003
Doutorado
Lima, João Guilherme de Souza. "Gerenciamento de dados climatologicos heterogeneos para aplicações em agricultura". [s.n.], 2003. http://repositorio.unicamp.br/jspui/handle/REPOSIP/276328.
Texto completoDissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica
Made available in DSpace on 2018-08-03T20:16:25Z (GMT). No. of bitstreams: 1 Lima_JoaoGuilhermedeSouza_M.pdf: 3914233 bytes, checksum: 0e3e6c79702149d50b14eee30f1ee90e (MD5) Previous issue date: 2003
Resumo: A utilização eficiente dos recursos agrícolas requer acompanhamentos e previsões corretas dos fatores climáticos. Estes monitoramentos devem ser realizados através da análise de medidas de elementos climáticos como temperatura, precipitação e umidade do ar (os chamados dados climatológicos). A integração de dados de fontes diferentes possibilita melhores caracterizações dos comportamentos climáticos, fornecendo bases mais sólidas para o planejamento das atividades agrícolas e diminuindo os riscos de perdas de safras. O objetivo deste trabalho é estudar os problemas envolvidos na integração de dados climatológicos e propor uma arquitetura que resolva estes problemas. A arquitetura proposta trata questões de homogeneização de dados, avaliação de qualidade e disponibilização de dados. Metadados descritivos facilitam o acesso aos dados, e resultados de avaliações de qualidade provêem mais suporte às tomadas de decisão baseadas nas informações obtidas do sistema. O trabalho foi validado através da implementação de parte da arquitetura no contexto de um projeto de monitoramento agroclimatológico desenvolvido na Empresa Brasileira de Pesquisa em Agropecuária (EMBRAPA). As principais contribuições desta dissertação são: (1) estudo dos problemas inerentes à integração de dados climatológicos; (2) estudo e levantamento das questões relativas à avaliação de qualidade de dados; (3) proposta de uma arquitetura de integração de dados climatológicos e (4) validação da arquitetura através de implementação parcial para um caso real
Abstract: The efficient use of agricultural resources requires monitoring and correct forecasts of climatic factors. These monitorings must be made through analysis of measures of climatic elements (known as climatological data) such as temperature, precipitation and air humidity. The integration of data from various sources enables better characterization of climatic behavior, helping to plan agricultural activities and decreasing the chances of crop losses. The objective of this dissertation is to study the problems related to climatological data integration and to specify an architecture that solves these problems. The proposed architecture deals with data homogenization, quality evaluation and data availability. Descriptive metadata facilitate data access, and results of quality evaluations provide additional support to the decision process. This work was validated through partial implementation of the architecture for a climatological monitoring project developed in the Brazilian Agricultural Research Corporation (EMBRAP A). The main contributions of this research are: (1) study of problems inherent to climatological data integration; (2) study and survey of questions associated with climatological data quality evaluation; (3) specification of a climatological data integration architecture and (4) validation of the architecture through partial implementation for a real case study
Mestrado
Mestre em Ciência da Computação
Cañete, Samantha de Castro. "Interface de gerenciamento e consultas visuais em banco de dados de biodiversidade". reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2011. http://hdl.handle.net/10183/29014.
Texto completoThe increasing amount of information available due to the several, different human activities leads to the need for computing systems able to index and analyze these large data volume. Data manipulation, derivation of new data from the available ones and the extraction of characteristics from these data allow finding patterns and generating knowledge, turning such computing systems important scientific tools. Thus, systems with these features are created with a variety of purposes. In this work we focus on systems for the management of biological data, more specifically on those supporting the study of mammals’ evolution. Such systems are classified as biodiversity information systems. It has been verified an increasing number of approaches to share biodiversity information through the web. Such systems aim at providing, through theWorldWideWeb, information about catalogued specimens in collections at various locations, like natural sciences museums and research institutions. This work describes the main components of a biodiversity information system developed to integrate visualization and data analysis tools and conventional data management functions provided by relational databases. The system, named TaxonomyBrowser, aims at helping biologists to manage the information about the specimens they collect in fieldwork, as well as specimens that have already been catalogued in museums’ collections. The integration of map visualization through the Google Maps API and the application of Google Charts and R System as data analysis tools improve the system applicability, as well as facilitate user interaction. All phases of the system design were performed together with UFRGS biologists, in a participatory design experience, and currently they are carrying on a thorough validation of the system.
Lima, George Marconi de Araujo. "Gerenciamento de transações : um estudo e uma proposta". [s.n.], 1996. http://repositorio.unicamp.br/jspui/handle/REPOSIP/276144.
Texto completoDissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação
Made available in DSpace on 2018-07-21T18:11:02Z (GMT). No. of bitstreams: 1 Lima_GeorgeMarconideAraujo_M.pdf: 3869700 bytes, checksum: eff9694586ec34812a8ddf99d4445fc3 (MD5) Previous issue date: 1996
Resumo: A fim de preservar a consistência dos dados, pode-se utilizar técnicas de controle de concorrência e recuperação de falhas oferecidas por transações. Os primeiros mecanismos foram desenvolvidos para um ambiente em que as aplicações têm curta duração e requerem isolamento. Contudo, com o aparecimento de novas aplicações, tais como CAD/CAM, CASE e SIG, outros requisitos, tais como longa duração e trabalho cooperativo, tiveram que ser considerados. A presente dissertação apresenta um estudo de vários modelos para gerenciamento de transações e a integração de gerenciamento de transações e versões. Baseados nesse estudo, descrevemos uma solução para o gerenciamento de transações adaptável aos requisitos de vários tipos de aplicações: aplicações de curta duração que requerem gerenciamento tradicional; aplicações de longa duração que requerem gerenciamento mais flexível para permitir a liberação antecipada de recursos e aplicações baseadas em trabalho de grupos que requerem o aninhamento de transações e a transferência de objetos entre áreas de trabalho de transações cooperativas. O modelo proposto é baseado numa hierarquia de classes que define gerenciadores de transações para cada uma das categorias de aplicações descritas acima. Cada aplicação pode criar instâncias do gerenciador mais adequado para suas características ou, então, estender algum gerenciador existente através do mecanismo de herança
Abstract: In order to preserve data consistency, concurrency control and failure recovery techniques supported by transactions may be used. The first mechanisms were developed for an environment in which applications have short duration and require isolation. However, with the appearance of new applications such as CAD/CAM, CASE and GIS, other requirements have to be considered. This dissertation studies several models of transaction management and the integration of transaction and version management. Based on this study, a solution for adapting transaction management to several styles of applications is described: short-duration applications requiring traditional management; long-duration applications requiring flexible transaction management to allow early release of resources and applications based on group work requiring nested transactions and facilities to exchange objects between transaction work areas. The proposed model is based on a hierarchy of classes defining transaction managers for each of the above categories of applications. Each applications can instantiate the manager more suitable for its characteristics or extend an existing manager using the inheritance mechanism
Mestrado
Mestre em Ciência da Computação
Moreira, Ériko Joaquim Rogério. "Uma estratégia para o gerenciamento da replicação parcial de dados XML". reponame:Repositório Institucional da UFC, 2009. http://www.repositorio.ufc.br/handle/riufc/4027.
Texto completoSubmitted by Marlene Sousa (mmarlene@ufc.br) on 2012-10-31T14:31:35Z No. of bitstreams: 1 2009_dis_ejrmoreira.pdf: 3522666 bytes, checksum: a03ad1f8d40632b3fa96686fd4113c45 (MD5)
Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2012-11-01T16:58:08Z (GMT) No. of bitstreams: 1 2009_dis_ejrmoreira.pdf: 3522666 bytes, checksum: a03ad1f8d40632b3fa96686fd4113c45 (MD5)
Made available in DSpace on 2012-11-01T16:58:08Z (GMT). No. of bitstreams: 1 2009_dis_ejrmoreira.pdf: 3522666 bytes, checksum: a03ad1f8d40632b3fa96686fd4113c45 (MD5) Previous issue date: 2009-09-04
XML has become a widely used standard in representing and exchanging data among Web Applications. Consequently, a large amount of data is distributed on the Web and stored in several persistence medias. Relational DBMSs XML-enabled provide concurrency control techniques to manage such data. However, XML data structure makes it difficult implementation of these techniques. Additionally, replication techniques have been used to improve management of large amounts of XML data. Current researches of XML data replication consist of to adapt existing concepts to semi-structured model. In particular, full replication provides a large of locks, due to updates that have occurred on all copies of the base. Moreover, the partial replication aims to increase concurrency among transactions, with a smaller amount of blocks in relation to total replication. This work presents the RepliXP, towards for management of partial replication of XML data. It is presented as a mechanism that combines features of synchronous and asynchronous replication protocols to reduce the amount of update locks. In order to evaluate the strategy, performance tests were carried out by analyzing the response time of transactions. Full and partial replication approaches were compared in RepliXP. According to the results, RepliXP using the strategy of partial XML data replication provided an improvement in response time of concurrent transactions.
XML tornou-se um padrão amplamente utilizado na representação e troca de dados entre aplicações na Web. Com isso, um grande volume desses dados está distribuído na Web e armazenado em diversos meios de persistência. SGBDs relacionais que suportam XML fornecem técnicas de controle de concorrência para gerenciar esses dados. No entanto, a estrutura de dados XML dificulta a aplicação dessas técnicas. Adicionalmente, as técnicas de replicação têm sido utilizadas para melhorar o gerenciamento de grandes quantidades de dados XML. Pesquisas atuais de replicação de dados XML consistem em adaptar os conceitos existentes ao modelo semi-estruturado. Em especial, a replicação total apresenta uma grande quantidade de bloqueios, em decorrência das atualizações ocorrerem em todas as cópias da base. Por outro lado, a replicação parcial visa aumentar a concorrência entre as transações, com uma menor quantidade de bloqueios em relação à replicação total. Este trabalho apresenta o RepliXP, uma estratégia para o gerenciamento da replicação parcial de dados XML. Ele é apresentado como um mecanismo que combina características de protocolos de replicação síncronos e assíncronos para diminuir o número de bloqueios de atualização. Para validar a estratégia, foram realizados testes de desempenho analisando o tempo de resposta das transações. Foram comparadas as abordagens de replicação total e replicação parcial no RepliXP. De acordo com os resultados obtidos, o RepliXP utilizando a estratégia de replicação parcial de dados XML proporcionou uma melhoria no tempo de resposta das transações concorrentes.
Grezele, Fábio. "Segurança em serviços de banco de dados em nuvem". reponame:Repositório Institucional da UFSC, 2013. https://repositorio.ufsc.br/xmlui/handle/123456789/123039.
Texto completoMade available in DSpace on 2014-08-06T17:43:04Z (GMT). No. of bitstreams: 1 323393.pdf: 898568 bytes, checksum: 82a66fa50c2585ef42883396a7b89de1 (MD5) Previous issue date: 2013
Computação em nuvem surgiu como meio para economia de recursos através do compartilhamento de estruturas em sistemas distribuídos. Dentre os diversos modelos de entrega de serviços em nuvem estão os bancos de dados. No entanto, em ambientes corporativos, a segurança das aplicações com bancos de dados em nuvem, torna-se uma preocupação. Desde 1997, trabalhos de pesquisa vêm sendo desenvolvidos com o objetivo de minimizar alguns dos diversos problemas de segurança apontados, principalmente os relativos aos requisitos de confidencialidade. Esta dissertação focaliza o problema de segurança que pode ser encontrado, quando se celebram acordos de níveis de serviço (SLA) e contratos de serviço para bancos de dados em nuvem. No sentido de averiguar a segurança e tratar riscos, é proposto a utilização de um framework conceitual construído com um conjunto de controles internos para orientar clientes e provedores no estabelecimento de níveis de segurança. Com a utilização deste framework, controles internos foram implantados em ambientes de laboratório para nuvens públicas e privadas. Estudos de caso e análise de vulnerabilidades foram realizados para verificação da segurança, permitindo obter importantes resultados, tais como: viabilizar a escolha de provedores de serviços que possuem os controle desejados; criar métricas para o monitoramento de serviços; adequar e utilizar o PCMONS (Private Cloud MONitoring System) para realizar o monitoramento; integrar controles aos contratos de serviços e fiscalizar acordos de níveis de serviços.
Abstract : Cloud computing enables resource savings through IT infrastructure sharing in distributed systems. Databases are one of cloud service delivery models. However, application security in cloud databases is a concern in enterprise environments. Since 1997, scientific researches have been developed in or- der to minimize some of these security problems, especially those relating to confidentiality. This master thesis focuses on the security problem, which can be found when entering into service level agreements (SLA) and service contracts. In order to investigate the security levels and risk treatment, we have proposed the use of a conceptual framework built with a set of internal controls to guide clients and providers for establishing acceptable security levels. By using this framework, internal controls were implemented in laboratory environment for public and private clouds. Case studies and vulnerabilities analysis were executed in order to investigate the security assurance. Important results were achieved, such as: to guide the choice of service providers holding the desired controls; create metrics for monitoring services; adapt and use of PCMONS (Private Cloud MONitoring System) monitoring tool; include controls into service contracts and manage service level agreements.
SOUZA, JÚNIOR João Bosco de. "NoSQLClusterAdmin: uma ferramenta para configuração, gerenciamento e monitoramento de SGBD NoSQL fragmentados e replicados". Universidade Federal de Pernambuco, 2017. https://repositorio.ufpe.br/handle/123456789/26724.
Texto completoApproved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-09-18T16:07:35Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO João Bosco de Souza Júnior.pdf: 3756560 bytes, checksum: 9a29c25c5b52eac5dc4f55e1fcacd104 (MD5)
Made available in DSpace on 2018-09-18T16:07:35Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO João Bosco de Souza Júnior.pdf: 3756560 bytes, checksum: 9a29c25c5b52eac5dc4f55e1fcacd104 (MD5) Previous issue date: 2017-07-28
Sistemas de gerenciamento de bancos de dados não relacionais, denominados SGBD NoSQL, geralmente apresentam uma arquitetura distribuída entre vários servidores, o que permite a fragmentação e replicação dos dados. Isso possibilita o processamento distribuído e, consequentemente, um melhor desempenho na manipulação de grandes volumes de dados. Para as tarefas de configuração, gerenciamento e monitoramento dessa arquitetura distribuída, os administradores de SGBD NoSQL necessitam de ferramentas para auxiliar nessas tarefas, pois na proporção que a quantidade de dados e servidores aumenta, tais tarefas se tornam mais dispendiosas, complexas e sujeitas a erros. Durante esta pesquisa foram identificadas ferramentas com o propósito de auxiliar os administradores nas tarefas de configuração, gerenciamento e monitoramento de SGBD NoSQL fragmentados e replicados. Contudo, as ferramentas estudadas são predominantemente restritas para uso em um único SGBD NoSQL, tendo em vista as distinções de arquitetura distribuída e procedimentos adotados para realização das tarefas de configuração, gerenciamento e monitoramento adotados por cada SGBD. Outra limitação observada diz respeito às funcionalidades disponíveis nessas ferramentas, que em muitos casos, se restringem a auxiliar na realização apenas de uma das três tarefas citadas. Assim, este trabalho apresenta a especificação, projeto, implementação e avaliação de uma ferramenta web e open source, denominada NoSQLClusterAdmin, cuja contribuição principal é auxiliar os administradores de bancos de dados nas tarefas de configuração, gerenciamento e monitoramento de SGBD NoSQL fragmentados e replicados, independentemente da solução de SGBD adotada. Outra contribuição é o fato da ferramenta uniformizar os procedimentos para configuração, gerenciamento e monitoramento dos SGBD, independentemente da solução NoSQL utilizada. A ferramenta desenvolvida para plataforma web foi avaliada por meio de testes de usabilidade aplicados com estudantes e profissionais com experiência no manuseio desse tipo de SGBD. Os resultados dessa avaliação mostraram que: (i) 70% dos usuários indicaram que a ferramenta NoSQLClusterAdmin pode ser utilizada em vários SGBD NoSQL distintos; (ii) a variedade de funcionalidades de configuração, gerenciamento e monitoramento disponíveis na ferramenta satisfez 80% dos usuários; e (iii) 85% concordou que a ferramenta padroniza a realização das tarefas de configuração, gerenciamento e monitoramento de SGBD NoSQL fragmentados e replicados, independentemente da solução de SGBD utilizada.
Not Only SQL database management systems, called NoSQL DBMSs, typically have a distributed architecture across multiple servers, which allows for the fragmentation and replication of data. This enables distributed processing and consequently better performance in handling large volumes of data. For the configuration, management, and monitoring tasks of this distributed architecture, NoSQL DBMS administrators need tools to assist in these tasks, as the amount of data and servers increases, such tasks become more costly, complex, and error prone. During this research, tools were identified to assist administrators in the tasks of configuration, management and monitoring of fragmented and replicated NoSQL DBMS. However, the tools studied are predominantly restricted for use in a single NoSQL DBMS, in view of the distributed architecture distinctions and procedures adopted to perform the configuration, management and monitoring tasks adopted by each DBMS. Another limitation observed relates to the functionalities available in these tools, which in many cases, are restricted to assist in performing only one of the three tasks mentioned. This work presents the specification, design, implementation and evaluation of a web and open source tool, called NoSQLClusterAdmin, whose main contribution is to assist database administrators in the tasks of configuration, management and monitoring of fragmented and replicated NoSQL DBMS, regardless of the adopted DBMS solution. Another contribution is the fact that the tool standardizes the procedures for configuration, management and monitoring of DBMS, regardless of the NoSQL solution used the tool was developed for web platform and was evaluated through usability tests applied with students and professionals with experience in the handling of this type of DBMS. The results of this evaluation showed that: (i) 70% of users indicated that the NoSQLCluster Admin tool can be used in several different NoSQL DBMS; (ii) the variety of configuration, management and monitoring functionalities available in the tool satisfied 80% of users; And (iii) 85% agreed that the tool standardizes the performance of the fragmented and replicated configuration, management and monitoring tasks of NoSQL DBMS, regardless of the DBMS solution used.
Tondin, Julio Benedito Marin. "Desenvolvimento de um programa computacional para gerenciamento de banco de dados de material nuclear". Universidade de São Paulo, 2011. http://www.teses.usp.br/teses/disponiveis/85/85131/tde-03042012-110437/.
Texto completoIn nuclear facilities, the nuclear material control is one of the most important activities. The National Commission of Nuclear Energy (CNEN) and the International Atomic Energy Agency (IAEA), when inspecting routinely, regards the data provided as a major safety factor. Having a control system of nuclear material that allows the amount and location of the various items to be inspected, at any time, is a key factor today. The objective of this work was to enhance the existing system using a more friendly platform of development, through the VisualBasic programming language (Microsoft Corporation), to facilitate the operation team of the reactor IEA-R1 Reactor tasks, providing data that enable a better and prompter control of the IEAR1 nuclear material. These data have allowed the development of papers presented at national and international conferences and the development of master´s dissertations and doctorate theses. The software object of this study was designed to meet the requirements of the CNEN and the IAEA safeguard rules, but its functions may be expanded in accordance with future needs. The program developed can be used in other reactors to be built in the country, since it is very practical and allows an effective control of the nuclear material in the facilities.
TONDIN, JULIO B. M. "Desenvolvimento de um programa computacional para gerenciamento de banco de dados de material nuclear". reponame:Repositório Institucional do IPEN, 2011. http://repositorio.ipen.br:8080/xmlui/handle/123456789/10086.
Texto completoMade available in DSpace on 2014-10-09T14:01:01Z (GMT). No. of bitstreams: 0
Dissertação (Mestrado)
IPEN/D
Instituto de Pesquisas Energeticas e Nucleares - IPEN-CNEN/SP
ARAÚJO, Carlos Gomes. "Avaliação do consumo de energia em sistemas de gerenciamento de banco de dados NoSQL". Universidade Federal de Pernambuco, 2016. https://repositorio.ufpe.br/handle/123456789/18626.
Texto completoMade available in DSpace on 2017-04-25T12:27:42Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertacao_CarlosGomes_MPROF_CINUFPE_2016.pdf: 4079444 bytes, checksum: 308622549a641d5ab125dbbdbceb4d2d (MD5) Previous issue date: 2016-08-08
NoSQL é uma tecnologia de sistemas de gerenciamento de banco de dados (SGBD) emergente, tendo modelos flexíveis focados em desempenho e escalabilidade, proposta para a manipulação de grandes quantidades de dados. NoSQL não substitui as abordagens de sistemas de gerenciamento de banco de dados relacionais, mas sim atende às restrições relacionadas à manipulação de dados em massa. Tal tecnologia já é aplicada em sistemas bem conhecidos em todo o mundo, tais como serviços de e-commerce e middleware. A importância de tal tecnologia tem motivado muitos trabalhos, principalmente em relação ao desempenho. Poucos trabalhos caracterizam e comparam o consumo de energia no contexto de SGBDs NoSQL, apesar de sua importância. De fato, o consumo de energia não deve ser negligenciado devido ao aumento dos custos financeiros e ambientais. A fim de avaliar essa questão, este trabalho analisa o desempenho e consumo de energia em sistemas de gerenciamento de banco de dados NoSQL, selecionamos o Cassandra (coluna), MongoDB (orientado a documento) e Redis (chave-valor) por serem representativos exemplos desta tecnologia. A metodologia baseia-se em Design of Experiments, de tal forma que as cargas de trabalho são geradas por Yahoo! Cloud Serving Benchmark (YCSB) produzindo leitura, escrita e atualização, por ciclos de 1.000, 10.000 e 100.000 operações. Como resultado são avaliados 27 tratamentos. Para a medição do consumo de energia é aplicado um framework específico chamado Emeter. As métricas são tempo de execução e consumo de energia, assim como a evolução no incremento da carga de trabalho. Os resultados demonstram que o consumo de energia pode variar significativamente entre os SGBDs para comandos distintos e cargas de trabalho. Conclui-se ainda que mesmo havendo uma correlação positiva entre o consumo de energia e o tempo de execução, o SGBD mais rápido não é, necessariamente o que utiliza menos energia.
NoSQL is an emergent database management systems technology (DBMS), having flexible models focused on performance and scalability, proposed for manipulating massive amounts of data. NoSQL is not intending for replacing the relational database management systems approaches, but to overcome constraints related to massive data manipulation. Such a technology already is applied in well-known systems around the world, such as e-commerce and middleware services. The importance of such technology has motivated lots of works, mainly relating to performance. Few works can be enumerated regarding characterization of energy consumption on NoSQL DataBase Management Systems, despite its importance. In fact the energy consumption is a feature that cannot be neglected due its impact on financial cost and environmental questions. In order to deal with such an issue, this work evaluates not only performance but the energy consumption involved on NoSQL DataBase Management Systems, specifically for Cassandra (Column), MongoDB (Document Oriented) and Redis (Key-Value). The methodology is based on Design of Experiments, in such a way the workloads are generated by Yahoo! Cloud Serving Benchmark (YCSB) producing readings, writings and updatings by cycles of 1.000, 10.000 and 100.000. As result, it is evaluated twenty seven treatments. For measuring energy consumption is applied a specific framework named Emeter. The Emeter captures metrics such as execution time and energy consumption related to treatments under analyze. In addition to the individual evaluation, the performance and energy consumption are analyzed among relevant scenarios, as well as the trends due to increases in the workload. The results demonstrate that energy consumption can differs for each DBMS according to command and workload. Additionally, the results make it possible to infer that despite the well-known positive correlation between performance and energy consumption, the fastest DBMS is not necessarily the best on saving energy.
Pinheiro, Ãngela Maria Alves. "OntologyManagementTool - uma ferramenta para gerenciamento de ontologias como teorias lÃgicas". Universidade Federal do CearÃ, 2013. http://www.teses.ufc.br/tde_busca/arquivo.php?codArquivo=9730.
Texto completoDiversos projetos nacionais e internacionais, como o dados.gov.br e o Linking Open Data, foram desenvolvidos com a finalidade de fomentar a criaÃÃo da Web de dados, que surge como uma nova abordagem para efetivamente publicar, recuperar e descrever dados distribuÃdos na Web. Diante desse cenÃrio, tais projetos enfrentam o desafio de criar e manter os dados estruturados que seguem os princÃpios do Linked Data, descritos no modelo de dados RDF e representados por ontologias. Esse desafio envolve outras tarefas complexas, tais como: reusar o vocabulÃrio das ontologias largamente utilizadas na elaboraÃÃo de novas ontologias (com a finalidade de promover a interoperabilidade e a integraÃÃo entre as aplicaÃÃes) e permitir a detecÃÃo de inconsistÃncias entre os termos de uma determinada ontologia. Com o objetivo de propor uma soluÃÃo para esse desafio, o problema de gerenciamento de ontologias foi abordado nesta dissertaÃÃo. Na literatura, existe uma grande variedade de trabalhos disponÃveis com diferentes enfoques e processos que propÃem o gerenciamento de ontologias. Entretanto, poucos trabalhos preocupam-se em auxiliar o especialista do domÃnio na elaboraÃÃo de uma ontologia que representa um entendimento correto sobre a semÃntica das ontologias envolvidas, visto que, para isso faz-se necessÃrio considerar as restriÃÃes lÃgicas das ontologias originais e propagÃ-las para as novas ontologias. AlÃm disso, foi percebido que, nos trabalhos anteriores, existe a necessidade de utilizar vÃrias ferramentas durante o processo de gerenciamento de ontologias, o que aumenta o esforÃo manual a ser despendido pelo especialista do domÃnio na elaboraÃÃo de novas ontologias. Sendo assim, a fim de oferecer algumas funcionalidades diferenciadas e de modo integrado ao gerenciamento de ontologias, foi desenvolvido um protÃtipo, denominado OntologyManagementTool. O protÃtipo desenvolvido considera as ontologias nÃo apenas como vocabulÃrio, mas como teorias lÃgicas, isto Ã, leva em conta tambÃm o seu conjunto de restriÃÃes. Cada ontologia manipulada à primeiramente normalizada para atender ao formalismo da LÃgica Descritiva, com um nÃmero especÃfico de restriÃÃes. Posteriormente, essa ontologia à transformada em um grafo de restriÃÃes, e assim, à possÃvel gerenciÃ-la a partir de um conjunto de operaÃÃes algÃbricas sobre o grafo. Destacam-se as seguintes operaÃÃes: uniÃo, interseÃÃo, diferenÃa eprojeÃÃo. ApÃs a execuÃÃo de cada uma dessas operaÃÃes, à possÃvel obter uma nova ontologia, bem como, o mapeamento entre as ontologias envolvidas. O trabalho proposto teve a sua aplicabilidade comprovada a partir de experimentos executados em ontologias descrevendo fontes de dados reais. Os resultados obtidos mostraram que a complexidade para gerar o grafo de restriÃÃes à linear em relaÃÃo ao nÃmero de restriÃÃes das ontologias; jà a complexidade do processamento das operaÃÃes algÃbricas (interseÃÃo, diferenÃa e projeÃÃo) à quadrÃtica em relaÃÃo ao nÃmero de vÃrtices do grafo de restriÃÃes, sendo importante evidenciar que o fator determinante para obtenÃÃo dessa complexidade à o procedimento escolhido para lidar com as restriÃÃes de inclusÃo, denominado fecho transitivo.
Pinheiro, Ângela Maria Alves. "OntologyManagementTool - uma ferramenta para gerenciamento de ontologias como teorias lógicas". reponame:Repositório Institucional da UFC, 2013. http://www.repositorio.ufc.br/handle/riufc/17233.
Texto completoSubmitted by guaracy araujo (guaraa3355@gmail.com) on 2016-05-30T18:23:33Z No. of bitstreams: 1 2013_dis_amapinheiro.pdf: 2709642 bytes, checksum: f720a93925601ca802e5474df0a4501c (MD5)
Approved for entry into archive by guaracy araujo (guaraa3355@gmail.com) on 2016-05-30T18:24:26Z (GMT) No. of bitstreams: 1 2013_dis_amapinheiro.pdf: 2709642 bytes, checksum: f720a93925601ca802e5474df0a4501c (MD5)
Made available in DSpace on 2016-05-30T18:24:26Z (GMT). No. of bitstreams: 1 2013_dis_amapinheiro.pdf: 2709642 bytes, checksum: f720a93925601ca802e5474df0a4501c (MD5) Previous issue date: 2013
Diversos projetos nacionais e internacionais, como o dados.gov.br e o Linking Open Data, foram desenvolvidos com a finalidade de fomentar a criação da Web de dados, que surge como uma nova abordagem para efetivamente publicar, recuperar e descrever dados distribuídos na Web. Diante desse cenário, tais projetos enfrentam o desafio de criar e manter os dados estruturados que seguem os princípios do Linked Data, descritos no modelo de dados RDF e representados por ontologias. Esse desafio envolve outras tarefas complexas, tais como: reusar o vocabulário das ontologias largamente utilizadas na elaboração de novas ontologias (com a finalidade de promover a interoperabilidade e a integração entre as aplicações) e permitir a detecção de inconsistências entre os termos de uma determinada ontologia. Com o objetivo de propor uma solução para esse desafio, o problema de gerenciamento de ontologias foi abordado nesta dissertação. Na literatura, existe uma grande variedade de trabalhos disponíveis com diferentes enfoques e processos que propõem o gerenciamento de ontologias. Entretanto, poucos trabalhos preocupam-se em auxiliar o especialista do domínio na elaboração de uma ontologia que representa um entendimento correto sobre a semântica das ontologias envolvidas, visto que, para isso faz-se necessário considerar as restrições lógicas das ontologias originais e propagá-las para as novas ontologias. Além disso, foi percebido que, nos trabalhos anteriores, existe a necessidade de utilizar várias ferramentas durante o processo de gerenciamento de ontologias, o que aumenta o esforço manual a ser despendido pelo especialista do domínio na elaboração de novas ontologias. Sendo assim, a fim de oferecer algumas funcionalidades diferenciadas e de modo integrado ao gerenciamento de ontologias, foi desenvolvido um protótipo, denominado OntologyManagementTool. O protótipo desenvolvido considera as ontologias não apenas como vocabulário, mas como teorias lógicas, isto é, leva em conta também o seu conjunto de restrições. Cada ontologia manipulada é primeiramente normalizada para atender ao formalismo da Lógica Descritiva, com um número específico de restrições. Posteriormente, essa ontologia é transformada em um grafo de restrições, e assim, é possível gerenciá-la a partir de um conjunto de operações algébricas sobre o grafo. Destacam-se as seguintes operações: união, interseção, diferença eprojeção. Após a execução de cada uma dessas operações, é possível obter uma nova ontologia, bem como, o mapeamento entre as ontologias envolvidas. O trabalho proposto teve a sua aplicabilidade comprovada a partir de experimentos executados em ontologias descrevendo fontes de dados reais. Os resultados obtidos mostraram que a complexidade para gerar o grafo de restrições é linear em relação ao número de restrições das ontologias; já a complexidade do processamento das operações algébricas (interseção, diferença e projeção) é quadrática em relação ao número de vértices do grafo de restrições, sendo importante evidenciar que o fator determinante para obtenção dessa complexidade é o procedimento escolhido para lidar com as restrições de inclusão, denominado fecho transitivo.
Moreira, Leonardo Oliveira. "Abordagem para Qualidade de Serviço em Banco de Dados Multi-Inquilinos em Nuvem". MOREIRA, L. O.; MACHADO, J. C. (2014), 2014. http://www.repositorio.ufc.br/handle/riufc/13360.
Texto completoSubmitted by Daniel Eduardo Alencar da Silva (dealencar.silva@gmail.com) on 2015-01-23T20:40:06Z No. of bitstreams: 1 2014_tese_lomoreira.pdf: 7232081 bytes, checksum: 6cf653b1eec3b011e37f11dd52c67b79 (MD5)
Approved for entry into archive by Rocilda Sales(rocilda@ufc.br) on 2015-09-23T16:30:06Z (GMT) No. of bitstreams: 1 2014_tese_lomoreira.pdf: 7232081 bytes, checksum: 6cf653b1eec3b011e37f11dd52c67b79 (MD5)
Made available in DSpace on 2015-09-23T16:30:06Z (GMT). No. of bitstreams: 1 2014_tese_lomoreira.pdf: 7232081 bytes, checksum: 6cf653b1eec3b011e37f11dd52c67b79 (MD5) Previous issue date: 2014
A computação em nuvens é um paradigma bem consolidado de utilização de recursos computacionais, segundo o qual infraestrutura de hardware, software e plataformas para o desenvolvimento de novas aplicações são oferecidos como serviços disponíveis remotamente e em escala global. Os usuários de nuvens computacionais abrem mão de uma infraestrutura computacional própria para dispô-la mediante serviços oferecidos por provedores de nuvem, delegando aspectos de Qualidade de Serviço (QoS) e assumindo custos proporcionais à quantidade de recursos que utilizam modelo de pagamento baseado no uso. Essas garantias de QoS são definidas entre o provedor do serviço e o usuário, e expressas por meio de Acordo de Nível de Serviço (SLA), o qual consiste de contratos que especificam um nível de qualidade a ser atendido, e penalidades em caso de falha. A maioria das aplicações em nuvem é orientada a dados e, por conta disso, Sistemas Gerenciadores de Banco de Dados (SGBDs) são candidatos potenciais para a implantação em nuvem. SGBDs em nuvem devem tratar uma grande quantidade de aplicações ou inquilinos. Os modelos de multi-inquilinatos são utilizados para consolidar vários inquilinos dentro de um só SGBD, favorecendo o compartilhamento eficaz de recursos, além de gerenciar uma grande quantidade de inquilinos com padrões de carga de trabalho irregulares. Por outro lado, os provedores em nuvem devem reduzir os custos operacionais, garantindo a qualidade. Para muitas aplicações, o maior tempo gasto no processamento das requisições está relacionado ao tempo de execução do SGBD. Portanto, torna-se importante que um modelo de qualidade seja aplicado ao SGBD para seu desempenho. Técnicas de provisionamento dinâmico são voltadas para o tratamento de cargas de trabalho irregulares, para que violações de SLA sejam evitadas. Sendo assim, uma estratégia para ajustar a nuvem no momento em que se prevê um comportamento que pode violar o SLA de um dado inquilino (banco de dados) deve ser considerada. As técnicas de alocação são usadas no intuito de aproveitar os recursos do ambiente em detrimento ao provisionamento. Com base nos sistemas de monitoramento e de modelos de otimização, as técnicas de alocação decidem onde será o melhor local para receber um dado inquilino. Para realizar a transferência do inquilino de forma eficiente, técnicas de Live Migration são adotadas para ter o mínimo de interrupção do serviço. Acredita-se que a combinação destas três técnicas podem contribuir para o desenvolvimento de um solução robusta de QoS para bancos de dados em nuvem, minimizando violações de SLA. Ante tais desafios, esta tese apresenta uma abordagem, denominada PMDB, para melhorar QoS em SGBDs multi-inquilinos em nuvem. A abordagem tem como objetivo reduzir o número de violações de SLA e aproveitar os recursos à disposição por meio de técnicas que realizam predição de carga de trabalho, alocação e migração de inquilinos quando necessitam de recursos com maior capacidade. Para isso, uma arquitetura foi proposta e um protótipo implementado com tais técnicas, além de estratégias de monitoramento e QoS voltada para aplicações de banco de dados em nuvem. Ademais, alguns experimentos orientados a desempenho foram especificados para mostrar a eficiência da abordagem a fim de alcançar o objetivo em foco.
A computação em nuvens é um paradigma bem consolidado de utilização de recursos computacionais, segundo o qual infraestrutura de hardware, software e plataformas para o desenvolvimento de novas aplicações são oferecidos como serviços disponíveis remotamente e em escala global. Os usuários de nuvens computacionais abrem mão de uma infraestrutura computacional própria para dispô-la mediante serviços oferecidos por provedores de nuvem, delegando aspectos de Qualidade de Serviço (QoS) e assumindo custos proporcionais à quantidade de recursos que utilizam modelo de pagamento baseado no uso. Essas garantias de QoS são definidas entre o provedor do serviço e o usuário, e expressas por meio de Acordo de Nível de Serviço (SLA), o qual consiste de contratos que especificam um nível de qualidade a ser atendido, e penalidades em caso de falha. A maioria das aplicações em nuvem é orientada a dados e, por conta disso, Sistemas Gerenciadores de Banco de Dados (SGBDs) são candidatos potenciais para a implantação em nuvem. SGBDs em nuvem devem tratar uma grande quantidade de aplicações ou inquilinos. Os modelos de multi-inquilinatos são utilizados para consolidar vários inquilinos dentro de um só SGBD, favorecendo o compartilhamento eficaz de recursos, além de gerenciar uma grande quantidade de inquilinos com padrões de carga de trabalho irregulares. Por outro lado, os provedores em nuvem devem reduzir os custos operacionais, garantindo a qualidade. Para muitas aplicações, o maior tempo gasto no processamento das requisições está relacionado ao tempo de execução do SGBD. Portanto, torna-se importante que um modelo de qualidade seja aplicado ao SGBD para seu desempenho. Técnicas de provisionamento dinâmico são voltadas para o tratamento de cargas de trabalho irregulares, para que violações de SLA sejam evitadas. Sendo assim, uma estratégia para ajustar a nuvem no momento em que se prevê um comportamento que pode violar o SLA de um dado inquilino (banco de dados) deve ser considerada. As técnicas de alocação são usadas no intuito de aproveitar os recursos do ambiente em detrimento ao provisionamento. Com base nos sistemas de monitoramento e de modelos de otimização, as técnicas de alocação decidem onde será o melhor local para receber um dado inquilino. Para realizar a transferência do inquilino de forma eficiente, técnicas de Live Migration são adotadas para ter o mínimo de interrupção do serviço. Acredita-se que a combinação destas três técnicas podem contribuir para o desenvolvimento de um solução robusta de QoS para bancos de dados em nuvem, minimizando violações de SLA. Ante tais desafios, esta tese apresenta uma abordagem, denominada PMDB, para melhorar QoS em SGBDs multi-inquilinos em nuvem. A abordagem tem como objetivo reduzir o número de violações de SLA e aproveitar os recursos à disposição por meio de técnicas que realizam predição de carga de trabalho, alocação e migração de inquilinos quando necessitam de recursos com maior capacidade. Para isso, uma arquitetura foi proposta e um protótipo implementado com tais técnicas, além de estratégias de monitoramento e QoS voltada para aplicações de banco de dados em nuvem. Ademais, alguns experimentos orientados a desempenho foram especificados para mostrar a eficiência da abordagem a fim de alcançar o objetivo em foco.
Juliani, Fernando [UNESP]. "Gerenciamento do processo de calibração secundária de acelerômetros por meio de uma aplicação de banco de dados". Universidade Estadual Paulista (UNESP), 2012. http://hdl.handle.net/11449/97044.
Texto completoCoordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
A vibração é um dos fenômenos que deve ser controlado quando atinente à componentes aeroespaciais. Sua ocorrência, em geral, não é benéfica para a vida útil de um sistema mecânico desse tipo e, por isso, este deve ser submetido a inúmeros testes de vibração para que informações sobre seu comportamento em operação sejam conhecidas. Sendo o acelerômetro o principal componente do sistema de medição empregado nos testes de vibração em sistemas mecânicos, é fundamental que sua calibração seja realizada periodicamente de forma a garantir suas condições operacionais. O processo de calibração secundária de acelerômetros especificamente envolve informações determinantes para a obtenção de resultados confiáveis e análise correta do comportamento de uma estrutura submetida a um ambiente vibratório. O valor de sensibilidade para uma frequência fixa de calibração é um exemplo de informação relevante que deve ser gerenciada. O Laboratório Central de Calibração de Acelerômetros do Comando da Aeronáutica é responsável pelo controle de um elevado número desses transdutores e, portanto, deve gerenciar dados de sua calibração e utilização. No entanto, deficiências foram detectadas no modo de controle vigente. Esta pesquisa propõe uma sistemática auxiliada por sistema proprietário de banco de dados para o gerenciamento laboratorial de dados de calibração de acelerômetros utilizados em testes e monitoramentos de vibração mecânica atendendo a itens da norma NBR ISO/IEC 17025 (2005)
Vibration is one of the phenomena that must be controlled regarding aerospace components. In general, its occurrence is not beneficial to the life cycle of such a mechanical system, and therefore it must be subjected to numerous vibration tests so that information about its behavior in operation is known. Since the accelerometer is the main component of the measuring system employed in mechanical vibration tests, it is essential that its calibration is performed periodically to ensure its operational conditions. The accelerometer secondary calibration process specifically involves critical information to obtain reliable results and correct analysis of the behavior of a structure subjected to a vibration environment. The sensitivity value for a fixed frequency calibration is an example of relevant information that must be managed. The Brazilian Air Force Command Central Laboratory of Accelerometer Calibration is responsible for managing a large number of transducers and therefore must manage data from their calibration and use. However, deficiencies were detected in the current control system. This research proposes a systematic approach aided by a proprietary database to manage the laboratory calibration data of accelerometers used in testing and monitoring of mechanical vibration according to NBR ISO/IEC 17025 (2005) item.
Juliani, Fernando. "Gerenciamento do processo de calibração secundária de acelerômetros por meio de uma aplicação de banco de dados /". Guaratinguetá : [s.n.], 2012. http://hdl.handle.net/11449/97044.
Texto completoCoorientador: Everaldo de Barros
Banca: José Elias Tomazini
Banca: Carlos D'Andrade Souto
Resumo: A vibração é um dos fenômenos que deve ser controlado quando atinente à componentes aeroespaciais. Sua ocorrência, em geral, não é benéfica para a vida útil de um sistema mecânico desse tipo e, por isso, este deve ser submetido a inúmeros testes de vibração para que informações sobre seu comportamento em operação sejam conhecidas. Sendo o acelerômetro o principal componente do sistema de medição empregado nos testes de vibração em sistemas mecânicos, é fundamental que sua calibração seja realizada periodicamente de forma a garantir suas condições operacionais. O processo de calibração secundária de acelerômetros especificamente envolve informações determinantes para a obtenção de resultados confiáveis e análise correta do comportamento de uma estrutura submetida a um ambiente vibratório. O valor de sensibilidade para uma frequência fixa de calibração é um exemplo de informação relevante que deve ser gerenciada. O Laboratório Central de Calibração de Acelerômetros do Comando da Aeronáutica é responsável pelo controle de um elevado número desses transdutores e, portanto, deve gerenciar dados de sua calibração e utilização. No entanto, deficiências foram detectadas no modo de controle vigente. Esta pesquisa propõe uma sistemática auxiliada por sistema proprietário de banco de dados para o gerenciamento laboratorial de dados de calibração de acelerômetros utilizados em testes e monitoramentos de vibração mecânica atendendo a itens da norma NBR ISO/IEC 17025 (2005)
Abstract:Vibration is one of the phenomena that must be controlled regarding aerospace components. In general, its occurrence is not beneficial to the life cycle of such a mechanical system, and therefore it must be subjected to numerous vibration tests so that information about its behavior in operation is known. Since the accelerometer is the main component of the measuring system employed in mechanical vibration tests, it is essential that its calibration is performed periodically to ensure its operational conditions. The accelerometer secondary calibration process specifically involves critical information to obtain reliable results and correct analysis of the behavior of a structure subjected to a vibration environment. The sensitivity value for a fixed frequency calibration is an example of relevant information that must be managed. The Brazilian Air Force Command Central Laboratory of Accelerometer Calibration is responsible for managing a large number of transducers and therefore must manage data from their calibration and use. However, deficiencies were detected in the current control system. This research proposes a systematic approach aided by a proprietary database to manage the laboratory calibration data of accelerometers used in testing and monitoring of mechanical vibration according to NBR ISO/IEC 17025 (2005) item.
Mestre
TEIXEIRA, NETO Mariano Cravo. "Pré-seleção e pré-carga de dados para bancos de dados móveis". Universidade Federal de Pernambuco, 2005. https://repositorio.ufpe.br/handle/123456789/2760.
Texto completoUm dos principais objetivos do acesso a dados móveis é atingir a ubiqüidade inerente aos sistemas móveis: ter acesso à informação independentemente de local e hora. Devido a restrições de sistemas móveis como, por exemplo, memória limitada e largura de banda estreita, é natural que se pesquisem métodos para amenizar esses problemas. Este trabalho abordará questões relativas ao gerenciamento de cache em bancos de dados móveis, com ênfase em técnicas para reduzir falhas à consulta de dados enquanto o dispositivo móvel esteja conectado, com pouca largura de banda ou fora de uma rede de dados. Dessa forma, espera-se reduzir o consumo de banda e aumentar, durante uma desconexão, a disponibilidade das informações armazenadas. Com o objetivo de aumentar a disponibilidade dos dados no SGBD localizado no cliente móvel, este trabalho propõe selecionar a priori (pré-seleção de dados) um subconjunto dos dados disponíveis no SGBD servidor e copiá-los para o SGBD no cliente móvel. Para a seleção a priori dos dados, este trabalho propõe minerar o histórico de acesso a dados do usuário do cliente móvel
Galvão, Wiliam Carlos [UNESP]. "Sistema WEB para gerenciamento de informações agrícolas". Universidade Estadual Paulista (UNESP), 2010. http://hdl.handle.net/11449/90664.
Texto completoO agronegócio é responsável por 33% do Produto Interno Bruto (PIB), sendo 42% das exportações e 37% dos empregos no Brasil. Com a globalização do mercado, o sucesso de uma empresa, principalmente no agronegócio, depende cada vez mais de fornecedores, produtores de matéria-prima, processadores e distribuidores. Atualmente, a busca por softwares eficazes para o gerenciamento de informações e apoio na gestão agrícola vem se evidenciando cada vez mais. Esse trabalho envolveu a linguagem de programação PHP “Hypertext Preprocessor” e banco de dados Firebird ambos com licença open source, ou seja, gratuita, tornando possível o desenvolvimento de um sistema para a internet usando técnicas de programação orientada a objetos, ganhando velocidade e confiabilidade na escrita dos códigos. O objetivo deste trabalho foi alcançado com êxito, consistindo no estudo, elaboração e desenvolvimento de um sistema computacional para organização e gerência dos dados para composição de relatórios gerenciais para auxílio na tomada de decisões, ganhando velocidade, consistência, segurança, disponibilidade das informações e eficiência no processamento
Agribusiness is responsible for 33% of Gross Domestic Product (GDP), 42% of total exports and 37% of jobs in Brazil. With the globalization of markets, the success of a company, particularly in agribusiness depends more and more suppliers, raw material producers, processors and distributors. Currently, the search for effective software to support the farm management is becoming increasingly evident. This work involved the PHP programming language Hypertext Preprocessor and firebird database with both open source license, or free, making it possible to develop a system for the internet using techniques of object-oriented programming, gaining speed and reliability writing code. The objective was successfully achieved to develop a computer system for data organization and composition of management reports to aid in decision making, gaining speed, consistency, security, information availability and efficiency in processing
Junior, Manoel Mariano Siqueira. "GeDaNIC: um framework para gerenciamento de banco de dados em nuvem baseado nas interaÃÃes entre consultas". Universidade Federal do CearÃ, 2012. http://www.teses.ufc.br/tde_busca/arquivo.php?codArquivo=9628.
Texto completoComputaÃÃo em nuvem à uma tendÃncia recente de tecnologia cujo objetivo à proporcionar serviÃos de Tecnologia da InformaÃÃo (TI) sob demanda e com pagamento baseado no uso. Um dos principais serviÃos disponibilizados por uma plataforma de computaÃÃo em nuvem consiste no serviÃo de gerenciamento de dados, ou simplesmente, serviÃo de dados. Este serviÃo assume a responsabilidade pela instalaÃÃo, configuraÃÃo e manutenÃÃo dos sistemas de banco de dados, bem como pelo acesso eficiente aos dados armazenados. Este trabalho apresenta um framework, denominado GeDaNIC, para o gerenciamento de sistemas de banco de dados em nuvem. O framework proposto tem por objetivo fornecer a infraestrutura de software necessÃria para a disponibilizaÃÃo de serviÃos de dados em ambientes de computaÃÃo em nuvem. Neste sentido, o mecanismo concebido busca solucionar alguns problemas ainda em aberto no contexto de sistemas de banco de dados em nuvem, tais como: despacho, escalonamento de consultas e provisionamento de recursos. A abordagem concebida estende os trabalhos anteriores adicionando importantes caracterÃsticas, como: o suporte Ãs cargas de trabalho imprevistas e a utilizaÃÃo de informaÃÃes sobre as interaÃÃes entre consultas. O suporte Ãs cargas de trabalhos sazonais està relacionado a uma das principais propriedades da computaÃÃo em nuvem: a elasticidade rÃpida. Jà as interaÃÃes entre consultas podem proporcionar impactos significativos no desempenho dos sistemas de banco de dados. Por este motivo, o GeDaNIC utiliza informaÃÃes sobre essas interaÃÃes com a finalidade de reduzir o tempo de execuÃÃo das cargas de trabalho submetidas ao serviÃo de dados e, consequentemente, aumentar o lucro do provedor deste serviÃo. Para isso, trÃs novas abordagens para modelar e mensurar as interaÃÃes entre instÃncias e tipos de consultas sÃo propostas. Com o objetivo de demonstrar a eficiÃncia do framework proposto uma avaliaÃÃo experimental usando o benchmark TPC-H sobre o PostgreSQL foi realizada. Os resultados apontam que a soluÃÃo concebida tem potencial para aumentar o lucro do provedor do serviÃo de dados em nuvem.
Cloud computing is a recent trend of technology aimed at providing services for Information Technology (IT) and demand-based payment in use. One of the main services provided by a computing platform cloud is the service data management, or simply data service. This service accepts responsibility for the installation, configuration and maintenance of database systems, as well as for efficient access to stored data. This work presents a framework, called GeDaNIC, for managing database systems cloud data. The proposed framework aims to provide software infrastructure required for the provision of data services in computing environments cloud. Accordingly, the search system designed to solve some problems still in the context of open systems database in the cloud, such as dispatch, scheduling appointments and resource provisioning. The approach extends the designed Previous work by adding important features such as: support to unforeseen workloads and use of information about the interactions between queries. The supporting seasonal workloads is related to one of the main properties of computing Cloud: rapid elasticity. Already interactions between queries can provide impacts significant performance of database systems. For this reason, the GeDaNIC uses information about these interactions in order to reduce the execution time of workloads submitted to the data service and thereby increase the profit of provider of this service. For this, three new approaches to model and measure the interactions between instances and types of queries are proposed. In order to demonstrate the efficiency of the proposed framework for experimental evaluation using the TPC-H on PostgreSQL was performed. The results show that the designed solution has the potential to increase the profit of the service provider cloud data.
Souza, Alexandre Morais de. "Critérios de seleção de sistemas de gerenciamento de banco de dados não relacionais em organizações privadas". Universidade de São Paulo, 2013. http://www.teses.usp.br/teses/disponiveis/100/100131/tde-26112013-181716/.
Texto completoDatabase Management Systems Not Relational (NoSQL DBMSs) are software packages for data management using a non-relational model. Given the current context of growth in data generation and the need that organizations have to collect vast amount of customer information, scientific research, sales and other information for further analysis, it is important to rethink how to define a suitable DBMS considering economic, technical and strategic organization. This research is concerned with the study of the new management model database, known as NoSQL, and brings the present contribution selection criteria to assist service consumers Database, private organizations, to select a NoSQL DBMS. To satisfy this objective was reviewed the literature with bibliographic on software selection process and DBMSs, identifying criteria used for this purpose. After completion of the literature, was defined the search method with application of a Delphi panel, by the ranking form mode. Through the panel could be determined, after the completion of two rounds and attending a mixed group of experts formed by managers, DBMS vendors, academics, developers, DBAs and DAs, the most relevant criteria for choosing a NoSQL DBMS, ordered according score for each criteria. Data were collected through a survey. From the identified criteria, analyzes were made on the main selection criteria of NoSQL DBMSs. Subsequently, the conclusions and final considerations were made with analysis of the results obtained with the Delphi panel. The main result achieved, this study offers a realistic view about the non-relational model for managing data and presents the most important criteria that indicate plausible the adoption of NoSQL DBMSs.
Siqueira, Junior Manoel Mariano. "GeDaNIC: um framework para gerenciamento de banco de dados em nuvem baseado nas interações entre consultas". reponame:Repositório Institucional da UFC, 2012. http://www.repositorio.ufc.br/handle/riufc/18497.
Texto completoSubmitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-11T18:53:56Z No. of bitstreams: 1 2012_dis_mmsiqueirajunior.pdf: 3719350 bytes, checksum: 33c477059041509925b50560598154a7 (MD5)
Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-20T11:56:41Z (GMT) No. of bitstreams: 1 2012_dis_mmsiqueirajunior.pdf: 3719350 bytes, checksum: 33c477059041509925b50560598154a7 (MD5)
Made available in DSpace on 2016-07-20T11:56:41Z (GMT). No. of bitstreams: 1 2012_dis_mmsiqueirajunior.pdf: 3719350 bytes, checksum: 33c477059041509925b50560598154a7 (MD5) Previous issue date: 2012
Cloud computing is a recent trend of technology aimed at providing services for Information Technology (IT) and demand-based payment in use. One of the main services provided by a computing platform cloud is the service data management, or simply data service. This service accepts responsibility for the installation, configuration and maintenance of database systems, as well as for efficient access to stored data. This work presents a framework, called GeDaNIC, for managing database systems cloud data. The proposed framework aims to provide software infrastructure required for the provision of data services in computing environments cloud. Accordingly, the search system designed to solve some problems still in the context of open systems database in the cloud, such as dispatch, scheduling appointments and resource provisioning. The approach extends the designed Previous work by adding important features such as: support to unforeseen workloads and use of information about the interactions between queries. The supporting seasonal workloads is related to one of the main properties of computing Cloud: rapid elasticity. Already interactions between queries can provide impacts significant performance of database systems. For this reason, the GeDaNIC uses information about these interactions in order to reduce the execution time of workloads submitted to the data service and thereby increase the profit of provider of this service. For this, three new approaches to model and measure the interactions between instances and types of queries are proposed. In order to demonstrate the efficiency of the proposed framework for experimental evaluation using the TPC-H on PostgreSQL was performed. The results show that the designed solution has the potential to increase the profit of the service provider cloud data.
Computação em nuvem é uma tendência recente de tecnologia cujo objetivo é proporcionar serviços de Tecnologia da Informação (TI) sob demanda e com pagamento baseado no uso. Um dos principais serviços disponibilizados por uma plataforma de computação em nuvem consiste no serviço de gerenciamento de dados, ou simplesmente, serviço de dados. Este serviço assume a responsabilidade pela instalação, configuração e manutenção dos sistemas de banco de dados, bem como pelo acesso eficiente aos dados armazenados. Este trabalho apresenta um framework, denominado GeDaNIC, para o gerenciamento de sistemas de banco de dados em nuvem. O framework proposto tem por objetivo fornecer a infraestrutura de software necessária para a disponibilização de serviços de dados em ambientes de computação em nuvem. Neste sentido, o mecanismo concebido busca solucionar alguns problemas ainda em aberto no contexto de sistemas de banco de dados em nuvem, tais como: despacho, escalonamento de consultas e provisionamento de recursos. A abordagem concebida estende os trabalhos anteriores adicionando importantes características, como: o suporte às cargas de trabalho imprevistas e a utilização de informações sobre as interações entre consultas. O suporte às cargas de trabalhos sazonais está relacionado a uma das principais propriedades da computação em nuvem: a elasticidade rápida. Já as interações entre consultas podem proporcionar impactos significativos no desempenho dos sistemas de banco de dados. Por este motivo, o GeDaNIC utiliza informações sobre essas interações com a finalidade de reduzir o tempo de execução das cargas de trabalho submetidas ao serviço de dados e, consequentemente, aumentar o lucro do provedor deste serviço. Para isso, três novas abordagens para modelar e mensurar as interações entre instâncias e tipos de consultas são propostas. Com o objetivo de demonstrar a eficiência do framework proposto uma avaliação experimental usando o benchmark TPC-H sobre o PostgreSQL foi realizada. Os resultados apontam que a solução concebida tem potencial para aumentar o lucro do provedor do serviço de dados em nuvem.
Soares, Andrey. "Especificação de uma MIB XML para o gerenciamento de sistemas". Florianópolis, SC, 2001. http://repositorio.ufsc.br/xmlui/handle/123456789/81502.
Texto completoMade available in DSpace on 2012-10-19T04:45:10Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T20:32:04Z : No. of bitstreams: 1 184229.pdf: 2048535 bytes, checksum: b71d0bb08d9b55207203209c45f8ca40 (MD5)
Este trabalho apresenta a utilização da XML no gerenciamento de sistemas. Mais especificamente, com o mapeamento de informações de uma MIB para documentos XML. Inicialmente, são identificadas as arquiteturas de gerenciamento de sistemas baseadas em agentes SNMP e XML, os quais possuem o objetivo de manipular informações em uma MIB. Em seguida, são definidas as informações que farão parte da MIB proposta, bem como um resumo com os passos para o desenvolvimento de uma MIB. O primeiro passo para o mapeamento MIB - XML é a criação dos arquivos DTD, que representam a estrutura das informações. A partir do arquivo DTD, gera-se o arquivo XML que contém as informações da MIB. O trabalho ainda descreve alguns procedimentos para otimizar a geração de arquivos XML e para compatibilizar as MIBs. Finalmente, é apresentada uma aplicação Web, como forma de validar e demonstrar a utilização de documentos XML, além dos resultados obtidos e as novas propostas de trabalho.
Moreira, Ãriko Joaquim RogÃrio. "Uma EstratÃgia para o Gerenciamento da ReplicaÃÃo Parcial de Dados XML". Universidade Federal do CearÃ, 2009. http://www.teses.ufc.br/tde_busca/arquivo.php?codArquivo=8413.
Texto completoXML has become a widely used standard in representing and exchanging data among Web Applications. Consequently, a large amount of data is distributed on the Web and stored in several persistence medias. Relational DBMSs XML-enabled provide concurrency control techniques to manage such data. However, XML data structure makes it difficult implementation of these techniques. Additionally, replication techniques have been used to improve management of large amounts of XML data. Current researches of XML data replication consist of to adapt existing concepts to semi-structured model. In particular, full replication provides a large of locks, due to updates that have occurred on all copies of the base. Moreover, the partial replication aims to increase concurrency among transactions, with a smaller amount of blocks in relation to total replication. This work presents the RepliXP, towards for management of partial replication of XML data. It is presented as a mechanism that combines features of synchronous and asynchronous replication protocols to reduce the amount of update locks. In order to evaluate the strategy, performance tests were carried out by analyzing the response time of transactions. Full and partial replication approaches were compared in RepliXP. According to the results, RepliXP using the strategy of partial XML data replication provided an improvement in response time of concurrent transactions.
Galvão, Wiliam Carlos 1977. "Sistema WEB para gerenciamento de informações agrícolas /". Botucatu : [s.n.], 2010. http://hdl.handle.net/11449/90664.
Texto completoBanca: Maura Seikp Tsutsui Esperancini
Banca: Carlos Roberto Pereira Padovani
Resumo: O agronegócio é responsável por 33% do Produto Interno Bruto (PIB), sendo 42% das exportações e 37% dos empregos no Brasil. Com a globalização do mercado, o sucesso de uma empresa, principalmente no agronegócio, depende cada vez mais de fornecedores, produtores de matéria-prima, processadores e distribuidores. Atualmente, a busca por softwares eficazes para o gerenciamento de informações e apoio na gestão agrícola vem se evidenciando cada vez mais. Esse trabalho envolveu a linguagem de programação PHP "Hypertext Preprocessor" e banco de dados Firebird ambos com licença open source, ou seja, gratuita, tornando possível o desenvolvimento de um sistema para a internet usando técnicas de programação orientada a objetos, ganhando velocidade e confiabilidade na escrita dos códigos. O objetivo deste trabalho foi alcançado com êxito, consistindo no estudo, elaboração e desenvolvimento de um sistema computacional para organização e gerência dos dados para composição de relatórios gerenciais para auxílio na tomada de decisões, ganhando velocidade, consistência, segurança, disponibilidade das informações e eficiência no processamento
Abstract: Agribusiness is responsible for 33% of Gross Domestic Product (GDP), 42% of total exports and 37% of jobs in Brazil. With the globalization of markets, the success of a company, particularly in agribusiness depends more and more suppliers, raw material producers, processors and distributors. Currently, the search for effective software to support the farm management is becoming increasingly evident. This work involved the PHP programming language "Hypertext Preprocessor" and firebird database with both open source license, or free, making it possible to develop a system for the internet using techniques of object-oriented programming, gaining speed and reliability writing code. The objective was successfully achieved to develop a computer system for data organization and composition of management reports to aid in decision making, gaining speed, consistency, security, information availability and efficiency in processing
Mestre
Saccol, Deise de Brum. "Detecção, gerenciamento e consulta a réplicas e a versões de documentos XML". reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2008. http://hdl.handle.net/10183/15304.
Texto completoThe overall goals of this thesis are the detection, management and querying of replicas and versions of XML documents. We denote by replica an identical copy of a real-world object, and by version a different but very similar representation of this object. Previous works focus on version management and querying rather than version detection. However, the version detection problem is critical in many scenarios, such as plagiarism detection, Web page ranking, software clone identification, and peer-to-peer (P2P) searching. In this thesis, we assume the existence of several replicas of a XML document. XML documents can be modified over time, causing the creation of versions. Replica detection is relatively simple and can be achieved by using hash functions. The version detection uses similarity concepts, which can be assessed by some metrics such as content similariy, structure similarity, subject similarity, and so on. Besides the similarity analysis among files, it is also necessary to define the version detection mechanism. The mechanism should allow the management and the querying of the detected replicas and versions. In order to achieve the goals of the thesis, we defined a set of similarity functions for XML files, the replica and version detection mechanism, the framework where such mechanism can be included and its components that allow managing and querying the detected replicas and versions. We performed a set of experiments for evaluating the proposed mechanism and we implemented tool prototypes that demonstrate the accuracy of some framework components. As the main distinguishing point, this thesis considers the version detection problem as a classification problem, for which the use of thresholds is not necessary. This approach is achieved by using Naïve Bayesian classifiers.
Sousa, Flávio Rubens de Carvalho. "RepliC: replicação elástica de banco de dados multi-inquilino em nuvem com qualidade de serviço". reponame:Repositório Institucional da UFC, 2013. http://www.repositorio.ufc.br/handle/riufc/18676.
Texto completoSubmitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-19T19:47:51Z No. of bitstreams: 1 2013_tese_frcsousa.pdf: 4788267 bytes, checksum: 309c8c9a9a33c86ed21a274ae7a693a5 (MD5)
Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-25T11:44:18Z (GMT) No. of bitstreams: 1 2013_tese_frcsousa.pdf: 4788267 bytes, checksum: 309c8c9a9a33c86ed21a274ae7a693a5 (MD5)
Made available in DSpace on 2016-07-25T11:44:18Z (GMT). No. of bitstreams: 1 2013_tese_frcsousa.pdf: 4788267 bytes, checksum: 309c8c9a9a33c86ed21a274ae7a693a5 (MD5) Previous issue date: 2013
Fatores econômicos estão levando ao aumento das infraestruturas e instalações de fornecimento de computação como um serviço, conhecido como Cloud Computing ou Computação em Nuvem, onde empresas e indivíduos podem alugar capacidade de computação e armazenamento, em vez de fazerem grandes investimentos de capital necessários para a construção e instalação de equipamentos de computação em larga escala. Na nuvem, o usuário do serviço tem algumas garantias, tais como desempenho e disponibilidade. Essas garantias de qualidade de serviço (QoS) são definidas entre o provedor do serviço e o usuário e expressas por meio de um acordo de nível de serviço (SLA). Este acordo consiste de contratos que especificam um nível de qualidade que deve ser atendido e penalidades em caso de falha. Muitas empresas dependem de um SLA e estas esperam que os provedores de nuvem forneçam SLAs baseados em características de desempenho. Contudo, em geral, os provedores baseiam seus SLAs apenas na disponibilidade dos serviços oferecidos. Sistemas de gerenciamento de banco de dados (SGBDs) para computação em nuvem devem tratar uma grande quantidade de aplicações, tenants ou inquilinos. Abordagens multi-inquilino têm sido utilizadas para hospedar vários inquilinos dentro de um único SGBD, favorecendo o compartilhamento eficaz de recursos, além de gerenciar uma grande quantidade de inquilinos com padrões de carga de trabalho irregulares. Por outro lado, os provedores em nuvem devem reduzir os custos operacionais garantindo a qualidade. Neste contexto, uma característica chave é a replicação de banco de dados, que melhora a disponibilidade, desempenho e, consequentemente, a qualidade do serviço. Técnicas de replicação de dados têm sido usadas para melhorar a disponibilidade, o desempenho e a escalabilidade em diversos ambientes. Contudo, a maior parte das estratégias de replicação de banco de dados têm se concentrado em aspectos de escalabilidade e consistência do sistema com um número estático de réplicas. Aspectos relacionados à elasticidade para banco de dados multi-inquilino têm recebido pouca atenção. Estas questões são importantes em ambientes em nuvem, pois os provedores precisam adicionar réplicas de acordo com a carga de trabalho para evitar violação do SLA e eles precisam remover réplicas quando a carga de trabalho diminui, além de consolidar os inquilinos. Visando solucionar este problema, este trabalho apresenta RepliC, uma abordagem para a replicação de banco de dados em nuvem com foco na qualidade do serviço, elasticidade e utilização eficiente dos recursos por meio de técnicas multi-inquilino. RepliC utiliza informações dos SGBDs e do provedor para provisionar recursos de forma dinâmica. Com o objetivo de avaliar RepliC, experimentos que medem a qualidade de serviço e elasticidade são apresentados. Os resultados destes experimentos confirmam que RepliC garante a qualidade com uma pequena quantidade de violação do SLA enquanto utiliza os recursos de forma eficiente.
LEMOS, José Mário de Mendonça. "Um processo para publicação de dados abertos em institutos federais baseado em BPM". Universidade Federal de Pernambuco, 2017. https://repositorio.ufpe.br/handle/123456789/25351.
Texto completoApproved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-02T20:07:41Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO José Mário de Mendonça Lemos.pdf: 3805798 bytes, checksum: de461c6ceaaaa901d18deb9f86b57202 (MD5)
Made available in DSpace on 2018-08-02T20:07:41Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO José Mário de Mendonça Lemos.pdf: 3805798 bytes, checksum: de461c6ceaaaa901d18deb9f86b57202 (MD5) Previous issue date: 2017-02-20
Dados são criados a cada instante pelo Governo, inclusive pelas Instituições Educacionais. No entanto, o aproveitamento desses dados pela sociedade é comprometido, uma vez que, os dados não estão disponíveis de forma pública, além disso, quando estão disponíveis, é muito comum encontrar dados que não estão devidamente estruturados ou são de difícil compreensão e manipulação. No âmbito governamental brasileiro, existe um movimento para ampliação da oferta de dados na Web, ora motivado por temáticas como transparência, democracia, crescimento econômico, inovação e valor social aos cidadãos, ora imposto por instrumentos regulatórios. Com o intuito de auxiliar no processo de abertura dos dados, diversas iniciativas têm sido desenvolvidas, incluindo a elaboração de metodologias, guias, padrões, leis, regulamentos e boas práticas. No entanto, cada iniciativa faz de um jeito diferente, não apresentando uma linguagem padronizada. Porém, a imaturidade dos órgãos, principalmente do nicho foco desta pesquisa (Rede Federal), muitas vezes os responsáveis pela abertura de dados, acabam perdidos nesse turbilhão de possibilidades, devido à falta de padronização das mesmas. Além do mais, nenhuma das opções existentes apresenta uma linguagem apropriada para descrição de processos. Com isso, surge a necessidade de uma nova abordagem padronizada para guiar as referidas instituições no processo de publicação de Dados Abertos. Por um lado, esta nova abordagem deve propor alguns passos essenciais, por outro lado não deve limitar a criatividade profissional. Além disso, deve se configurar como um instrumento que determine um planejamento metódico para um processo de abertura de dados. Dessa forma, espera-se harmonizar as áreas envolvidas, facilitando e acelerando a implantação do processo, além de contribuir para a criação de um guia único, padronizado e de referência. Neste contexto, este trabalho apresenta como principal contribuição, uma proposta de processo para Publicação de Dados Abertos na Rede Federal de Educação Profissional, Científica e Tecnológica, baseado nos conceitos de Gerenciamento de Processos de Negócios (BPM, do inglês Business Process Management) com a utilização da notação BPMN (Business Process Model and Notation).
Data are created at any moment by the Government, including educational institutions. However, the use of these data by society is compromised because the data are not publically available. Besides, when they are available, they are commonly not properly structured or they are difficult to understand and manipulate. In the Brazilian government sphere, there is a movement to increase the supply of data on the Web, sometimes motivated by themes such as transparency, democracy, economic growth, innovation and social value to citizens and sometimes imposed by regulatory instruments. In order to assist in the process to make the data public, several initiatives have been developed, such as the development of methodologies, guides, standards, laws, regulations and good practices. However, each initiative does in a different way, not presenting a standardized language. But the immaturity of the institutions, especially the ones in the Federal sphere (focus of this work), in charge of making the data public, can get confused in this whirlwind of possibilities, because there is no standardization. Moreover, none of the existing options present an appropriate language for describing processes. Thus, there is a need for a new approach to guide these institutions to publicize data. On one hand, this new approach must propose some essential steps. On the other hand, it should not limit professional creativity. In addition, it must be configured as an instrument that determines a methodical planning for a process of making data public. This way, it is hoped the approach can harmonize involved areas, facilitating and accelerating the implementation of the process and contributing to the creation of a single and standard guide. In this context, this work presents, as main contribution, a proposal of process for publication of public data in the Federal Network of Vocational, Scientific and Technological Education based on the concepts of Business Process Management (BPM) using the notation BPMN (Business Process Model and Notation).
Huth, Guilherme. "Um modelo para o gerenciamento de bancos de dados SQL através de Stored Procedures". Florianópolis, SC, 2002. http://repositorio.ufsc.br/xmlui/handle/123456789/84209.
Texto completoMade available in DSpace on 2012-10-20T07:17:04Z (GMT). No. of bitstreams: 1 191454.pdf: 1313682 bytes, checksum: 1a829892e1a3ea0d9d8ae428f627b562 (MD5)
Este trabalho apresenta uma proposta de modelo para gerenciamento de bancos de dados relacionais que utilizam a linguagem SQL como padrão. Foram estudadas as características gerais dos bancos de dados SQL para que a definição do modelo atendesse o formato genérico, ou seja, fosse aplicável para qualquer SGBD SQL. A flexibilização do módulo de gerenciamento foi o principal objetivo na definição do modelo proposto, tendo como principal foco a definição de regras de gerenciamento customizáveis. A validação do modelo foi realizada através de uma implementação em um ambiente de bancos de dados (utilizando o SGBD Oracle). Os resultados desta implementação foram comparados com as funcionalidades de um produto de mercado (Unicenter TNG) como forma de avaliação da eficiência do modelo proposto.
Villarreal, Sergio Roberto. "Modelo de gerenciamento da infraestrutura de rede para otimização de nuvem verde". reponame:Repositório Institucional da UFSC, 2014. https://repositorio.ufsc.br/xmlui/handle/123456789/132414.
Texto completoMade available in DSpace on 2015-04-29T21:02:09Z (GMT). No. of bitstreams: 1 333050.pdf: 1755196 bytes, checksum: 5cc4f7adb9d9042757ae2da8541ed3f6 (MD5) Previous issue date: 2014
Os conceitos propostos pela TI Verde têm mudado as prioridades na concepção dos sistemas de informação e sua infraestrutura, acrescentando aos tradicionais requisitos de desempenho e custo, a necessidade de eficiência no consumo de energia. A abordagem de Computação em Nuvem Verde baseia-se nos conceitos de Computação em Nuvem e TI Verde com o objetivo de oferecer um ambiente computacional flexível e eficiente, porém suas estratégias não têm dado muita atenção para o consumo dos equipamentos de rede. Enquanto a Green Networking tem proposto princípios e técnicas que estão sendo padronizados e implementados nos novos equipamentos de rede, existe nos data centers uma grande quantidade de equipamentos legados sem esses recursos. Neste trabalho, se demonstra que é possível aperfeiçoar a abordagem de nuvem verde e reduzir significativamente o consumo de energia elétrica dos data centers mediante a aplicação de um modelo de gerenciamento dos equipamentos de rede baseado em regras simples que tornam o consumo dos mesmos aproximadamente proporcional ao tráfego. A metodologia utilizada consiste em pesquisa bibliográfica; definição do modelo através de expressões matemáticas e diagramas UML; validação do modelo mediante um estudo de caso aplicado de forma analítica; desenvolvimento de extensões ao simulador CloudSim para suportar o modelo e a realização de simulações para validar seu impacto em diferentes cenários.
Bernardes, Neto João. "Tecnologia da informação para o gerenciamento do conhecimento obtido das bases de dados de um organização". Florianópolis, SC, 2001. http://repositorio.ufsc.br/xmlui/handle/123456789/81886.
Texto completoMade available in DSpace on 2012-10-19T08:51:10Z (GMT). No. of bitstreams: 0Bitstream added on 2013-07-16T18:41:55Z : No. of bitstreams: 1 188113.pdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Nós estamos observando uma nova era inicializando, que podemos chamar de era do conhecimento. Com a lição da qualidade e reengenharia firmemente embutida no dia a dia das organizações, a atenção agora está na produção de produtos inovadores e personalizados, pois a primeira palavra para produção é inovação; atualmente os serviços e negócios também exigem a necessidade de criar e produzir inovações em novos produtos e serviços em uma taxa sempre crescente. Isto só é possível com o apoio da tecnologia, principalmente da informação, e com apoio do gerenciamento do conhecimento. Inovação é habilitada através do conhecimento. Neste trabalho, propõe-se uma arquitetura que torna possível o uso da Tecnologia da Informação, tendo como propósito gerenciar o conhecimento de uma organização, criando assim, condições para melhorar a produtividade do conhecimento dos trabalhadores da organização, bem como proporcionar a rápida construção e utilização da coleção do conhecimento da organização. Os componentes tecnológicos podem auxiliar o gerenciamento do conhecimento organizacional auxiliando a recuperação destes conhecimentos. Podemos denominar este conjunto de componentes tecnológicos de Arquitetura de Gerenciamento do Conhecimento. Esta arquitetura consiste em um tipo de tecnologia que se encaixa em uma estrutura geral, para proporcionar o suporte ao gerenciamento do conhecimento. Baseado nesta arquitetura, o trabalho resgata conceitos afetos a sistemas de informações, gerenciamento do conhecimento, gerenciamento de conteúdo, meios de comunicação e data warehousing, além da apresentação dos resultados obtidos no desenvolvimento de um projeto de gerenciamento do conhecimento para dar apoio ao fluxo do conhecimento através da organização, bem como reter e recuperar o conhecimento explícito das organizações.
Oikawa, Igor Yoshio 1985. "Proposta de método para integração de bases de dados do agronegócio do Paraná". reponame:Repositório Institucional da UFPR, 2017. http://hdl.handle.net/1884/47293.
Texto completoCoorientador : Prof. Dr. Egon Walter Wildauer
Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Sociais Aplicadas, Programa de Pós-Graduação em Ciência, Gestão e Tecnologia da Informação. Defesa: Curitiba, 17/02/2017
Inclui referências
Resumo: Este trabalho é parte integrante de um grupo de pesquisa, sob orientação do professor Egon Walter Wildauer, do Programa de Pós-Graduação em Ciência, Gestão e Tecnologia da Informação da Universidade Federal do Paraná; que visa estudar e desenvolver uma plataforma que permita a integração, armazenamento e consulta de diversas fontes de dados da produção do agronegócio do Estado do Paraná, que possibilite a comunicação, coleta, tratamento e disseminação de dados e informações do setor. O Agronegócio sendo um sistema que envolve toda a cadeia produtiva, seus dados e informações correspondentes são distribuídos por natureza. Isto implica na possibilidade da existência de mesmos objetos do mundo real, existirem em locais diferentes, sob diferentes visões. O interesse em uma visão única e integrada de um todo, implica no uso e aplicação de conceitos da Gestão da Informação e o entendimento do Ciclo de Vida da Informação no processo de extração de dados de fontes de dados, sua manipulação e integração, visando a centralização de dados para uso de terceiros e auxílio no processo de tomada de decisão. Este processo remete a concepção de Armazéns de Dados (DW), sendo utilizados seus conceitos e técnicas, como Extração, Transformação e Carregamento (ETL). É objetivo deste trabalho o desenvolvimento de um método de integração de fontes de dados bem como de um modelo / esquema de dados integrado que o comporte; fazendo o uso de técnicas e conceitos de Integração de Dados (DI) e Modelagem de Dados em seu desenvolvimento. Palavras-chave: Gestão da Informação; Agronegócio; Integração de Dados; Armazéns de Dados; ETL.
Abstract: This work is a part of a research group, under the guidance of Professor Egon Walter Wildauer, from the Post-Graduate Program in Science, Management and Information Technology of the Universidade Federal do Paraná; which aims to research and develop a platform that allows the integration, storage and query of several data sources of agribusiness production in the State of Paraná-Brazil allowing the communication, collection, treatment and dissemination of data and information of the agribusiness sector. Agribusiness is a system that involves the entire production chain, which means that data and corresponding information are distributed in its essence. This feature implies the possibility of existence of the same real world objects exists in different places, under different visions. The interest in an integrated view implies the use and application of Information Management concepts and the understanding of the Information Life Cycle in the process of data extraction from data sources, their manipulation and integration, aiming at the data integration for use by third parties and assistance in the decision-making process. This process reminds the concepts of Data Warehouses (DW), and its techniques, such as Extraction, Transformation and Loading (ETL). The objective of this work is the development of a method of integrating data sources as well an integrated schema that supports it; making use of techniques and concepts of Data Integration (DI) and Data Modeling in its development. Keywords: Information Management; Agribusiness; Data Integration; Data Warehouse; ETL.
Ricardo, Vilson Wronscki. "Metodologia de gerenciamento de base de dados para ensino-aprendizagem de estatística na WEB". Florianópolis, SC, 2004. http://repositorio.ufsc.br/xmlui/handle/123456789/87270.
Texto completoMade available in DSpace on 2012-10-21T17:27:36Z (GMT). No. of bitstreams: 1 221030.pdf: 1523211 bytes, checksum: 8a8d2efe86cfe6cb6c3397e2657fa307 (MD5)
Um dos meios de comunicação mais emergentes atualmente é a Web, que se torna a cada dia mais comum e acessível. E o ensino à distância é uma dos segmentos que mais cresce na Internet. Hoje existem incontáveis cursos disponíveis e ambientes para a sua criação. Todo o controle e administração dos cursos on-line são feitos com o uso de Banco de Dados.
Moreira, Leonardo Oliveira. "Abordagem para Qualidade de ServiÃo em Banco de Dados Multi-Inquilinos em Nuvem". Universidade Federal do CearÃ, 2014. http://www.teses.ufc.br/tde_busca/arquivo.php?codArquivo=12688.
Texto completoA computaÃÃo em nuvens à um paradigma bem consolidado de utilizaÃÃo de recursos computacionais, segundo o qual infraestrutura de hardware, software e plataformas para o desenvolvimento de novas aplicaÃÃes sÃo oferecidos como serviÃos disponÃveis remotamente e em escala global. Os usuÃrios de nuvens computacionais abrem mÃo de uma infraestrutura computacional prÃpria para dispÃ-la mediante serviÃos oferecidos por provedores de nuvem, delegando aspectos de Qualidade de ServiÃo (QoS) e assumindo custos proporcionais à quantidade de recursos que utilizam modelo de pagamento baseado no uso. Essas garantias de QoS sÃo definidas entre o provedor do serviÃo e o usuÃrio, e expressas por meio de Acordo de NÃvel de ServiÃo (SLA), o qual consiste de contratos que especificam um nÃvel de qualidade a ser atendido, e penalidades em caso de falha. A maioria das aplicaÃÃes em nuvem à orientada a dados e, por conta disso, Sistemas Gerenciadores de Banco de Dados (SGBDs) sÃo candidatos potenciais para a implantaÃÃo em nuvem. SGBDs em nuvem devem tratar uma grande quantidade de aplicaÃÃes ou inquilinos. Os modelos de multi-inquilinatos sÃo utilizados para consolidar vÃrios inquilinos dentro de um sà SGBD, favorecendo o compartilhamento eficaz de recursos, alÃm de gerenciar uma grande quantidade de inquilinos com padrÃes de carga de trabalho irregulares. Por outro lado, os provedores em nuvem devem reduzir os custos operacionais, garantindo a qualidade. Para muitas aplicaÃÃes, o maior tempo gasto no processamento das requisiÃÃes està relacionado ao tempo de execuÃÃo do SGBD. Portanto, torna-se importante que um modelo de qualidade seja aplicado ao SGBD para seu desempenho. TÃcnicas de provisionamento dinÃmico sÃo voltadas para o tratamento de cargas de trabalho irregulares, para que violaÃÃes de SLA sejam evitadas. Sendo assim, uma estratÃgia para ajustar a nuvem no momento em que se prevà um comportamento que pode violar o SLA de um dado inquilino (banco de dados) deve ser considerada. As tÃcnicas de alocaÃÃo sÃo usadas no intuito de aproveitar os recursos do ambiente em detrimento ao provisionamento. Com base nos sistemas de monitoramento e de modelos de otimizaÃÃo, as tÃcnicas de alocaÃÃo decidem onde serà o melhor local para receber um dado inquilino. Para realizar a transferÃncia do inquilino de forma eficiente, tÃcnicas de Live Migration sÃo adotadas para ter o mÃnimo de interrupÃÃo do serviÃo. Acredita-se que a combinaÃÃo destas trÃs tÃcnicas podem contribuir para o desenvolvimento de um soluÃÃo robusta de QoS para bancos de dados em nuvem, minimizando violaÃÃes de SLA. Ante tais desafios, esta tese apresenta uma abordagem, denominada PMDB, para melhorar QoS em SGBDs multi-inquilinos em nuvem. A abordagem tem como objetivo reduzir o nÃmero de violaÃÃes de SLA e aproveitar os recursos à disposiÃÃo por meio de tÃcnicas que realizam prediÃÃo de carga de trabalho, alocaÃÃo e migraÃÃo de inquilinos quando necessitam de recursos com maior capacidade. Para isso, uma arquitetura foi proposta e um protÃtipo implementado com tais tÃcnicas, alÃm de estratÃgias de monitoramento e QoS voltada para aplicaÃÃes de banco de dados em nuvem. Ademais, alguns experimentos orientados a desempenho foram especificados para mostrar a eficiÃncia da abordagem a fim de alcanÃar o objetivo em foco.
Cloud computing is a well-established paradigm of computing resources usage, whereby hardware infrastructure, software and platforms for the development of new applications are offered as services available remotely and globally. Cloud computing users give up their own infrastructure to dispose of it through the services offered by cloud providers, to which they delegate aspects of Quality of Service (QoS) and assume costs proportional to the amount of resources they use, which is based on a payment model. These QoS guarantees are established between the service provider and the user, and are expressed through Service Level Agreements (SLA). This agreement consists of contracts that specify a level of quality that must be met, and penalties in case of failure. The majority of cloud applications are data-driven, and thus Database Management Systems (DBMSs) are potential candidates for cloud deployment. Cloud DBMS should treat a wide range of applications or tenants. Multi-tenant models have been used to consolidate multiple tenants within a single DBMS, favoring the efficient sharing of resources, and to manage a large number of tenants with irregular workload patterns. On the other hand, cloud providers must be able to reduce operational costs while keeping quality levels as agreed. To many applications, the longer time spent in processing requests is related to the DBMS runtime. Therefore, it becomes important to apply a quality model to obtain DBMS performance. Dynamic provisioning techniques are geared to treat irregular workloads so that SLA violations are avoided. Therefore, it is necessary to adopt a strategy to adjust the cloud at the time a behavior that may violate the SLA of a given tenant (database) is predicted. The allocation techniques are applied in order to utilize the resources of the environment to the dentriment of provisioning. Based on both the monitoring and the optimization models systems, the allocation techniques will decide the best place to assign a given tenant to. In order to efficiently perform the transfer of the tenant, minimal service interruption, Live Migration techniques are adopted. It is believed that the combination of these three techniques may contribute to the development of a robust QoS solution to cloud databases which minimizes SLA violations. Faced with these challenges, this thesis proposes an approach, called PMDB, to improve DBMS QoS in multi-tenant cloud. The approach aims to reduce the number of SLA violations and take advantage the resources that are available using techniques that perform workload prediction, allocation and migration of tenants when greater capacity resources are needed. An architecture was then proposed and a prototype implementing such techniques was developed, besides monitoring strategies and QoS oriented database applications in the cloud. Some performance oriented experiments were then specified to show the effectiveness of our approach.
Sakai, Rodrigo Katsumoto. "Extensão de um SGBD para incluir o gerenciamento da informação temporal". Universidade de São Paulo, 2007. http://www.teses.usp.br/teses/disponiveis/3/3141/tde-01042009-143157/.
Texto completoThe temporal factor is a natural variable of the majority of the information systems, therefore in the real world the events occur in dynamic way, modifying continuously the values of its objects in elapsing of the time. Many of these systems need to register this modication and to attribute the instants of time where each information was valid in the system. This work congregates the characteristics related to the Temporal Databases and Object-Relational Databases. The primordial objective is to consider a form to implement some temporal aspects, developing a module that is part of the characteristics and internal functionalities of a DBMS. The temporal module mainly contemplates the part of restrictions of temporal integrity that is used to keep the consistency of the stored temporal information. For this, a new data type is proposed that better represent the objects timestamps. An important part for the implementation of this project is the use of a object-relational DBMS that has some object-oriented characteristics that allow the extension of its resources, becoming capable to manage some temporal aspects. The developed temporal module becomes these transparent temporal aspects for the user. For consequence, these users are capable to use the temporal resources more naturally.
Almeida, Fábio Renato de [UNESP]. "Gerenciamento de transação e mecanismo de serialização baseado em Snapshot". Universidade Estadual Paulista (UNESP), 2014. http://hdl.handle.net/11449/122161.
Texto completoDentre os diversos níveis de isolamento sob os quais uma transação pode executar, Snapshot se destaca pelo fato de lidar com uma visão isolada da base de dados. Uma transação sob o isolamento Snapshot nunca bloqueia e nunca é bloqueada quando solicita uma operação de leitura, permitindo portanto uma maior concorrência quando a mesma é comparada a uma execução sob um isolamento baseado em bloqueios. Entretanto, Snapshot não é imune a todos os problemas decorrentes da concorrência e, portanto, não oferece garantia de serialização. Duas estratégias são comumente empregadas para se obter tal garantia. Na primeira delas o próprio Snapshot é utilizado, mas uma alteração estratégica na aplicação e na base de dados, ou até mesmo a inclusão de um componente de software extra, são empregados como auxiliares para se obter apenas históricos serializáveis. Outra estratégia, explorada nos últimos anos, tem sido a construção de algoritmos fundamentados no protocolo de Snapshot, mas adaptados de modo a impedir as anomalias decorrentes do mesmo e, portanto, garantir serialização. A primeira estratégia traz como vantagem o fato de se aproveitar os benefícios de Snapshot, principalmente no que diz respeito ao monitoramento apenas dos elementos que são escritos pela transação. Contudo, parte da responsabilidade em se lidar com problemas de concorrência é transferida do Sistema Gerenciador de Banco de Dados (SGBD) para a aplicação. Por sua vez, a segunda estratégia deixa apenas o SGBD como responsável pelo controle de concorrência, mas os algoritmos até então apresentados nesta categoria tem exigido também o monitoramento dos elementos lidos. Neste trabalho é desenvolvida uma técnica onde os benefícios de Snapshot são mantidos e a garantia de serialização é obtida sem a necessidade de adaptação do código da aplicação ou da introdução de uma camada de software extra. A técnica proposta é ...
Among the various isolation levels under which a transaction can execute, Snapshot stands out because of its capacity to work on an isolated view of the database. A transaction under the Snapshot isolation never blocks and is never blocked when requesting a read operation, thus allowing a higher level of concurrency when it is compared to an execution under a lock-based isolation. However, Snapshot is not immune to all the problems that arise from the competition, and therefore no serialization warranty exists. Two strategies are commonly employed to obtain such assurance. In the first one Snapshot itself is used, but a strategic change in the application and database, or even the addition of an extra software component, are employed as assistants to get only serializable histories. Another strategy, explored in recent years, has been the coding of algorithms based on the Snapshot protocol, but adapted to prevent the anomalies arising from it, and therefore ensure serialization. The first strategy has the advantage of exploring the benefits of Snapshot, especially with regard to monitoring only the elements that are written by the transaction. However, part of the responsibility for dealing with competition issues is transferred from the Database Management System (DBMS) to the application. In turn, the second strategy leaves only the DBMS as responsible for concurrency control, but the algorithms presented so far in this category also require the monitoring of the elements that the transaction reads. In this work we developed a technique where the benefits of Snapshot use are retained and serialization warranty is achieved without the need for adaptation of application code or the addition of an extra software layer. The proposed technique is implemented in a prototype of a DBMS that has temporal features and has been built to demonstrate the applicability of the technique in systems that employ the object-oriented model. However, the ...
Sousa, FlÃvio Rubens de Carvalho. "RepliC: ReplicaÃÃo ElÃstica de Banco de Dados Multi-Inquilino em Nuvem com Qualidade de ServiÃo". Universidade Federal do CearÃ, 2013. http://www.teses.ufc.br/tde_busca/arquivo.php?codArquivo=9121.
Texto completoFatores econÃmicos estÃo levando ao aumento das infraestruturas e instalaÃÃes de fornecimento de computaÃÃo como um serviÃo, conhecido como Cloud Computing ou ComputaÃÃo em Nuvem, onde empresas e indivÃduos podem alugar capacidade de computaÃÃo e armazenamento, em vez de fazerem grandes investimentos de capital necessÃrios para a construÃÃo e instalaÃÃo de equipamentos de computaÃÃo em larga escala. Na nuvem, o usuÃrio do serviÃo tem algumas garantias, tais como desempenho e disponibilidade. Essas garantias de qualidade de serviÃo (QoS) sÃo definidas entre o provedor do serviÃo e o usuÃrio e expressas por meio de um acordo de nÃvel de serviÃo (SLA). Este acordo consiste de contratos que especificam um nÃvel de qualidade que deve ser atendido e penalidades em caso de falha. Muitas empresas dependem de um SLA e estas esperam que os provedores de nuvem forneÃam SLAs baseados em caracterÃsticas de desempenho. Contudo, em geral, os provedores baseiam seus SLAs apenas na disponibilidade dos serviÃos oferecidos. Sistemas de gerenciamento de banco de dados (SGBDs) para computaÃÃo em nuvem devem tratar uma grande quantidade de aplicaÃÃes, tenants ou inquilinos. Abordagens multi-inquilino tÃm sido utilizadas para hospedar vÃrios inquilinos dentro de um Ãnico SGBD, favorecendo o compartilhamento eficaz de recursos, alÃm de gerenciar uma grande quantidade de inquilinos com padrÃes de carga de trabalho irregulares. Por outro lado, os provedores em nuvem devem reduzir os custos operacionais garantindo a qualidade. Neste contexto, uma caracterÃstica chave à a replicaÃÃo de banco de dados, que melhora a disponibilidade, desempenho e, consequentemente, a qualidade do serviÃo. TÃcnicas de replicaÃÃo de dados tÃm sido usadas para melhorar a disponibilidade, o desempenho e a escalabilidade em diversos ambientes. Contudo, a maior parte das estratÃgias de replicaÃÃo de banco de dados tÃm se concentrado em aspectos de escalabilidade e consistÃncia do sistema com um nÃmero estÃtico de rÃplicas. Aspectos relacionados à elasticidade para banco de dados multi-inquilino tÃm recebido pouca atenÃÃo. Estas questÃes sÃo importantes em ambientes em nuvem, pois os provedores precisam adicionar rÃplicas de acordo com a carga de trabalho para evitar violaÃÃo do SLA e eles precisam remover rÃplicas quando a carga de trabalho diminui, alÃm de consolidar os inquilinos. Visando solucionar este problema, este trabalho apresenta RepliC, uma abordagem para a replicaÃÃo de banco de dados em nuvem com foco na qualidade do serviÃo, elasticidade e utilizaÃÃo eficiente dos recursos por meio de tÃcnicas multi-inquilino. RepliC utiliza informaÃÃes dos SGBDs e do provedor para provisionar recursos de forma dinÃmica. Com o objetivo de avaliar RepliC, experimentos que medem a qualidade de serviÃo e elasticidade sÃo apresentados. Os resultados destes experimentos confirmam que RepliC garante a qualidade com uma pequena quantidade de violaÃÃo do SLA enquanto utiliza os recursos de forma eficiente.
Fatores econÃmicos estÃo levando ao aumento das infraestruturas e instalaÃÃes de fornecimento de computaÃÃo como um serviÃo, conhecido como Cloud Computing ou ComputaÃÃo em Nuvem, onde empresas e indivÃduos podem alugar capacidade de computaÃÃo e armazenamento, em vez de fazerem grandes investimentos de capital necessÃrios para a construÃÃo e instalaÃÃo de equipamentos de computaÃÃo em larga escala. Na nuvem, o usuÃrio do serviÃo tem algumas garantias, tais como desempenho e disponibilidade. Essas garantias de qualidade de serviÃo (QoS) sÃo definidas entre o provedor do serviÃo e o usuÃrio e expressas por meio de um acordo de nÃvel de serviÃo (SLA). Este acordo consiste de contratos que especificam um nÃvel de qualidade que deve ser atendido e penalidades em caso de falha. Muitas empresas dependem de um SLA e estas esperam que os provedores de nuvem forneÃam SLAs baseados em caracterÃsticas de desempenho. Contudo, em geral, os provedores baseiam seus SLAs apenas na disponibilidade dos serviÃos oferecidos. Sistemas de gerenciamento de banco de dados (SGBDs) para computaÃÃo em nuvem devem tratar uma grande quantidade de aplicaÃÃes, tenants ou inquilinos. Abordagens multi-inquilino tÃm sido utilizadas para hospedar vÃrios inquilinos dentro de um Ãnico SGBD, favorecendo o compartilhamento eficaz de recursos, alÃm de gerenciar uma grande quantidade de inquilinos com padrÃes de carga de trabalho irregulares. Por outro lado, os provedores em nuvem devem reduzir os custos operacionais garantindo a qualidade. Neste contexto, uma caracterÃstica chave à a replicaÃÃo de banco de dados, que melhora a disponibilidade, desempenho e, consequentemente, a qualidade do serviÃo. TÃcnicas de replicaÃÃo de dados tÃm sido usadas para melhorar a disponibilidade, o desempenho e a escalabilidade em diversos ambientes. Contudo, a maior parte das estratÃgias de replicaÃÃo de banco de dados tÃm se concentrado em aspectos de escalabilidade e consistÃncia do sistema com um nÃmero estÃtico de rÃplicas. Aspectos relacionados à elasticidade para banco de dados multi-inquilino tÃm recebido pouca atenÃÃo. Estas questÃes sÃo importantes em ambientes em nuvem, pois os provedores precisam adicionar rÃplicas de acordo com a carga de trabalho para evitar violaÃÃo do SLA e eles precisam remover rÃplicas quando a carga de trabalho diminui, alÃm de consolidar os inquilinos. Visando solucionar este problema, este trabalho apresenta RepliC, uma abordagem para a replicaÃÃo de banco de dados em nuvem com foco na qualidade do serviÃo, elasticidade e utilizaÃÃo eficiente dos recursos por meio de tÃcnicas multi-inquilino. RepliC utiliza informaÃÃes dos SGBDs e do provedor para provisionar recursos de forma dinÃmica. Com o objetivo de avaliar RepliC, experimentos que medem a qualidade de serviÃo e elasticidade sÃo apresentados. Os resultados destes experimentos confirmam que RepliC garante a qualidade com uma pequena quantidade de violaÃÃo do SLA enquanto utiliza os recursos de forma eficiente.
Ferrizzi, André Cid [UNESP]. "Uma abordagem lógica para o gerenciamento de identificadores de objetos em sistemas gerenciadores de banco de dados não convencionais". Universidade Estadual Paulista (UNESP), 2010. http://hdl.handle.net/11449/98700.
Texto completoOs Sistemas Gerenciadores de Banco de Dados Não Convencionais são utilizados por aplicações que necessitam de e ciência no gerenciamento de objetos complexos. Um dos conceitos fundamentais nestes sistemas e o de identidade de objetos, pois em uma base de dados cada objeto possui um identificador unico que e utilizado para acessá-lo e referenciá-lo em relacionamentos com outros objetos. A implementação de identidade pode ser feita com OIDs físicos ou OIDs lógicos. A abordagem física apresenta o problema de fragmentação da base de dados, pois os OIDs são formados diretamente pelos endereções dos objetos. Já a abordagem lógica não tem este problema, e as técnicas são arvore-B, hashing e mapeamento direto. Cada uma destas abordagens apresenta um determinado problema: arvore-B pode ocupar muita mem oria e o tempo de mapeamento possui complexidade logar tmica; em hashing ocorrem colisões pois o conhecimento prévio do tamanho da tabela hash se torna inviável em base de dados, que crescem de maneira imprevisível; e por ultimo, mapeamento direto, que apesar de possuir o menor tempo de mapeamento dentre as três abordagens, não permite a relocação de todas as páginas da base de dados. Uma outra abordagem lógica é utilizada no Núcleo Gerenciador de Dados Multimídia (NUGEM), o qual vem sendo desenvolvido junto ao Grupo de Banco de Dados do IBILCE de São José do Rio Preto com o intuito de gerenciar dados não convencionais. Neste trabalho e proposta uma nova estrutura e funcionalidades para a t ecnica de gerenciamento de OIDs, cuja experimenta cão foi efetivada junto ao NUGEM, caracterizando uma nova abordagem com um menor tempo de manipulação dos OIDs, a qual pode ser nomeada de mapeamento indireto. E tamb em avaliado o esgotamento de OIDs, comprovando-se que este não representa um problema para a abordagem de mapeamento indireto. Em comparaçãocom as abordagens...
Non-Conventional Database Management Systems are used for applications that require e cient management of complex objects. One fundamental concept of these systems is object identity, because in a database each object has a unique identi er that is used to access it and reference it in relationships with another objects. The implementation of identity can be made with physical OIDs or logical OIDs. The physical approach presents the problem of fragmenting the database, because the OIDs are formed directly by addresses of objects. The logical approach does not have this problem, and the techniques are B-tree, hashing and direct mapping. Each of these approaches presents a particular problem: B-tree can occupy a lot of memory and its mapping time is logarithmic, in hashing collisions occur because the prior knowledge of the table size becomes a problem in databases, which grow in unpredictable ways, and nally, direct mapping, which despite having the smallest mapping time of the three approaches, does not allow the relocation of all pages in the database. Another logical approach is used in the Multimedia Data Manager Kernel (NUGEM), which is being developed by the Database Group at IBILCE, S~ao Jos e do Rio Preto, S~ao Paulo, Brazil, in order to manage non-conventional data. This work proposes a new structure and features for the OID management, which was tested in NUGEM, featuring a new approach with a shorter handling time of OIDs, that can be named indirect mapping. It is also evaluated the exhaustion of OIDs, proving that this is not a problem for the indirect mapping approach. Compared with the approaches of the literature, the approach of indirect mapping has constant mapping time, uses less memory than the B-tree approach, has no problems like collisions and, unlike direct mapping, allows total exibility for relocating pages in the database
Ferrizzi, André Cid. "Uma abordagem lógica para o gerenciamento de identificadores de objetos em sistemas gerenciadores de banco de dados não convencionais /". São José do Rio Preto : [s.n.], 2010. http://hdl.handle.net/11449/98700.
Texto completoBanca: Rogéria Cristiane Gratão de Souza
Banca: Marilde Terezinha Prado Santos
Resumo: Os Sistemas Gerenciadores de Banco de Dados Não Convencionais são utilizados por aplicações que necessitam de e ciência no gerenciamento de objetos complexos. Um dos conceitos fundamentais nestes sistemas e o de identidade de objetos, pois em uma base de dados cada objeto possui um identificador unico que e utilizado para acessá-lo e referenciá-lo em relacionamentos com outros objetos. A implementação de identidade pode ser feita com OIDs físicos ou OIDs lógicos. A abordagem física apresenta o problema de fragmentação da base de dados, pois os OIDs são formados diretamente pelos endereções dos objetos. Já a abordagem lógica não tem este problema, e as técnicas são arvore-B, hashing e mapeamento direto. Cada uma destas abordagens apresenta um determinado problema: arvore-B pode ocupar muita mem oria e o tempo de mapeamento possui complexidade logar tmica; em hashing ocorrem colisões pois o conhecimento prévio do tamanho da tabela hash se torna inviável em base de dados, que crescem de maneira imprevisível; e por ultimo, mapeamento direto, que apesar de possuir o menor tempo de mapeamento dentre as três abordagens, não permite a relocação de todas as páginas da base de dados. Uma outra abordagem lógica é utilizada no Núcleo Gerenciador de Dados Multimídia (NUGEM), o qual vem sendo desenvolvido junto ao Grupo de Banco de Dados do IBILCE de São José do Rio Preto com o intuito de gerenciar dados não convencionais. Neste trabalho e proposta uma nova estrutura e funcionalidades para a t ecnica de gerenciamento de OIDs, cuja experimenta cão foi efetivada junto ao NUGEM, caracterizando uma nova abordagem com um menor tempo de manipulação dos OIDs, a qual pode ser nomeada de mapeamento indireto. E tamb em avaliado o esgotamento de OIDs, comprovando-se que este não representa um problema para a abordagem de mapeamento indireto. Em comparaçãocom as abordagens... (Resumo completo, clicar acesso eletrônico abaixo)
Abstract: Non-Conventional Database Management Systems are used for applications that require e cient management of complex objects. One fundamental concept of these systems is object identity, because in a database each object has a unique identi er that is used to access it and reference it in relationships with another objects. The implementation of identity can be made with physical OIDs or logical OIDs. The physical approach presents the problem of fragmenting the database, because the OIDs are formed directly by addresses of objects. The logical approach does not have this problem, and the techniques are B-tree, hashing and direct mapping. Each of these approaches presents a particular problem: B-tree can occupy a lot of memory and its mapping time is logarithmic, in hashing collisions occur because the prior knowledge of the table size becomes a problem in databases, which grow in unpredictable ways, and nally, direct mapping, which despite having the smallest mapping time of the three approaches, does not allow the relocation of all pages in the database. Another logical approach is used in the Multimedia Data Manager Kernel (NUGEM), which is being developed by the Database Group at IBILCE, S~ao Jos e do Rio Preto, S~ao Paulo, Brazil, in order to manage non-conventional data. This work proposes a new structure and features for the OID management, which was tested in NUGEM, featuring a new approach with a shorter handling time of OIDs, that can be named indirect mapping. It is also evaluated the exhaustion of OIDs, proving that this is not a problem for the indirect mapping approach. Compared with the approaches of the literature, the approach of indirect mapping has constant mapping time, uses less memory than the B-tree approach, has no problems like collisions and, unlike direct mapping, allows total exibility for relocating pages in the database
Mestre
Fialho, Miguel Madi. "Validação do sistema de gerenciamento de banco de dados da Coleção de Culturas de Fungos de Referência do INCQS/FIOCRUZ". reponame:Repositório Institucional da FIOCRUZ, 2010. https://www.arca.fiocruz.br/handle/icict/4018.
Texto completoFundação Oswaldo Cruz. Instituto Nacional de Controle de Qualidade em Saúde.
A validação para adequação dos itens de qualidade é uma orientação do Guia Para Operação de Centros de Recursos Biológicos da OCDE (Organização para Cooperação e Desenvolvimento Econômico). Os Centros de Recursos Biológicos (CRB) devem disponibilizar dados descrevendo o material biológico e sua origem ao Global Biological Resource Centre Network (GBRCN). De acordo com o guia, os CRBs deverão produzir e armazenar dados eletrônicos e catálogos baseados em informações validadas. Os dados também devem ser conservados para rastreabilidade em conformidade com as leis, regulamentos e políticas nacionais. Os depositários são responsáveis por assegurar a qualidade dos dados associados com o material biológico. A orientação da norma da qualidade ABNT NBR ISO/IEC 17025:2005, é que softwares de prateleira utilizados devam ser validados. Utilizando as ISOs para qualidade de produção de software de prateleira, engenharia de software, visão geral e processos, processos de ciclo de vida de software, incluindo a comprovação documental, este trabalho resultou na validação do Sistema de Gerenciamento de Banco de Dados INFOGER_FUNGOS, uma ferramenta de administração da Coleção de Micro-organismos de Referência avaliando sua capacidade de desempenho e qualidade. Este sistema é objeto de um processo de propriedade intelectual para tratamento de dados, gerando informações de qualidade nos serviços de referência desta Coleção.
Validation for adequacy of quality items is an orientation of the Guide to Operation of Biological Resource Centers OECD (Organization for Economic Cooperation and Development). The Biological Resource Centers (BRC) must provide data describing the biological material and its origin to the Global Biological Resource Center Network (GBRCN). According to the guide, the BRCs should produce and store electronic data and catalogs based on validated information. The data also should be retained for traceability in accordance with the laws, regulations and policies. The trustees are responsible for ensuring the quality of the data associated with the biological material. The orientation of the quality standard ISO / IEC 17025:2005, is that shelf software used should be validated. By using the ISOs to production quality of packaged software, software engineering, overview and processes including documentary evidence, this work resulted in the validation of the Database Management System INFOGER_FUNGOS, an administration tool for the Collection of Reference Microorganisms evaluating its performance and quality. This system is subject to a process of intellectual property for data processing, generating high quality information for the reference services of this collection.
Almeida, Fábio Renato de. "Gerenciamento de transação e mecanismo de serialização baseado em Snapshot /". São José do Rio Preto, 2014. http://hdl.handle.net/11449/122161.
Texto completoBanca: Elaine Parros Machado de Sousa
Banca: Rogéria Cristiane Gratão de Souza
Resumo: Dentre os diversos níveis de isolamento sob os quais uma transação pode executar, Snapshot se destaca pelo fato de lidar com uma visão isolada da base de dados. Uma transação sob o isolamento Snapshot nunca bloqueia e nunca é bloqueada quando solicita uma operação de leitura, permitindo portanto uma maior concorrência quando a mesma é comparada a uma execução sob um isolamento baseado em bloqueios. Entretanto, Snapshot não é imune a todos os problemas decorrentes da concorrência e, portanto, não oferece garantia de serialização. Duas estratégias são comumente empregadas para se obter tal garantia. Na primeira delas o próprio Snapshot é utilizado, mas uma alteração estratégica na aplicação e na base de dados, ou até mesmo a inclusão de um componente de software extra, são empregados como auxiliares para se obter apenas históricos serializáveis. Outra estratégia, explorada nos últimos anos, tem sido a construção de algoritmos fundamentados no protocolo de Snapshot, mas adaptados de modo a impedir as anomalias decorrentes do mesmo e, portanto, garantir serialização. A primeira estratégia traz como vantagem o fato de se aproveitar os benefícios de Snapshot, principalmente no que diz respeito ao monitoramento apenas dos elementos que são escritos pela transação. Contudo, parte da responsabilidade em se lidar com problemas de concorrência é transferida do Sistema Gerenciador de Banco de Dados (SGBD) para a aplicação. Por sua vez, a segunda estratégia deixa apenas o SGBD como responsável pelo controle de concorrência, mas os algoritmos até então apresentados nesta categoria tem exigido também o monitoramento dos elementos lidos. Neste trabalho é desenvolvida uma técnica onde os benefícios de Snapshot são mantidos e a garantia de serialização é obtida sem a necessidade de adaptação do código da aplicação ou da introdução de uma camada de software extra. A técnica proposta é ...
Abstract: Among the various isolation levels under which a transaction can execute, Snapshot stands out because of its capacity to work on an isolated view of the database. A transaction under the Snapshot isolation never blocks and is never blocked when requesting a read operation, thus allowing a higher level of concurrency when it is compared to an execution under a lock-based isolation. However, Snapshot is not immune to all the problems that arise from the competition, and therefore no serialization warranty exists. Two strategies are commonly employed to obtain such assurance. In the first one Snapshot itself is used, but a strategic change in the application and database, or even the addition of an extra software component, are employed as assistants to get only serializable histories. Another strategy, explored in recent years, has been the coding of algorithms based on the Snapshot protocol, but adapted to prevent the anomalies arising from it, and therefore ensure serialization. The first strategy has the advantage of exploring the benefits of Snapshot, especially with regard to monitoring only the elements that are written by the transaction. However, part of the responsibility for dealing with competition issues is transferred from the Database Management System (DBMS) to the application. In turn, the second strategy leaves only the DBMS as responsible for concurrency control, but the algorithms presented so far in this category also require the monitoring of the elements that the transaction reads. In this work we developed a technique where the benefits of Snapshot use are retained and serialization warranty is achieved without the need for adaptation of application code or the addition of an extra software layer. The proposed technique is implemented in a prototype of a DBMS that has temporal features and has been built to demonstrate the applicability of the technique in systems that employ the object-oriented model. However, the ...
Mestre
Silva, Tatiana Schnorr. "Desenvolvimento de banco de dados de pacientes submetidos ao transplante de células-tronco hematopoéticas". reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2018. http://hdl.handle.net/10183/181272.
Texto completoIntroduction: hematopoietic stem cell transplantation (HSCT) is a complex procedure involving different biopsychosocial factors and conditions. Monitoring the data of these patients is fundamental for obtaining information that can help the management, improve the assistance provided and subsidize new research on the subject. Objectives: to develop a database model (DB) of patients submitted to HSCT, considering the main variables of interest in the area. Methods: it is an applied study, where the methodology of development of a relational DB was used, following three main steps (conceptual model, relational model, physical model). The proposed physical model was developed in the research electronic data capture (Redcap) platform. A pilot test was performed with data from three patients submitted to HSCT at Moinhos de Vento Hospital in 2016, in order to evaluate the use of the tools and their applicability. Results: nine forms were developed in redcap: demographic data; diagnostic data; previous clinical data; pre‐transplant evaluation; procedure; post‐immediate follow‐up; post‐late follow‐up; readmissions; death. In addition, three reporting models were developed, with the variables contained in the forms to assist in the export of data to the institutions involved with the TCTH. After the pilot test small adjustments were made in the nomenclature of some variables and others were excluded due to the complexity in obtaining them. Conclusion: it is hoped that with its use, the proposed BD model can serve as a subsidy to qualify the care provided to the patient, assist the management and facilitate research in the area.
Teixeira, Marcus Vinícius Carneiro. "Gerenciamento de anotações de biosseqüências utilizando associações entre ontologias e esquemas XML". Universidade Federal de São Carlos, 2008. https://repositorio.ufscar.br/handle/ufscar/384.
Texto completoUniversidade Federal de Sao Carlos
Bioinformatics aims at providing computational tools to the development of genome researches. Among those tools are the annotations systems and the Database Management Systems (DBMS) that, associated to ontologies, allow the formalization of both domain conceptual and the data scheme. The data yielded by genome researches are often textual and with no regular structures and also requires scheme evolution. Due to these aspects, semi-structured DBMS might offer great potential to manipulate those data. Thus, this work presents architecture for biosequence annotation based on XML databases. Considering this architecture, a special attention was given to the database design and also to the manual annotation task performed by researchers. Hence, this architecture presents an interface that uses an ontology-driven model for XML schemas modeling and generation, and also a manual annotation interface prototype that uses molecular biology domain ontologies, such as Gene Ontology and Sequence Ontology. These interfaces were proven by Bioinformatics and Database experienced users, who answered questionnaires to evaluate them. The answers presented good assessments to issues like utility and speeding up the database design. The proposed architecture aims at extending and improving the Bio-TIM, an annotation system developed by the Database Group from the Computer Science Department of the Federal University from São Carlos (UFSCar).
A Bioinformática é uma área da ciência que visa suprir pesquisas de genomas com ferramentas computacionais que permitam o seu desenvolvimento tecnológico. Dentre essas ferramentas estão os ambientes de anotação e os Sistemas Gerenciadores de Bancos de Dados (SGBDs) que, associados a ontologias, permitem a formalização de conceitos do domínio e também dos esquemas de dados. Os dados produzidos em projetos genoma são geralmente textuais e sem uma estrutura de tipo regular, além de requerer evolução de esquemas. Por suas características, SGBDs semi-estruturados oferecem enorme potencial para tratar tais dados. Assim, este trabalho propõe uma arquitetura para um ambiente de anotação de biosseqüências baseada na persistência dos dados anotados em bancos de dados XML. Neste trabalho, priorizou-se o projeto de bancos de dados e também o apoio à anotação manual realizada por pesquisadores. Assim, foi desenvolvida uma interface que utiliza ontologias para guiar a modelagem de dados e a geração de esquemas XML. Adicionalmente, um protótipo de interface de anotação manual foi desenvolvido, o qual faz uso de ontologias do domínio de biologia molecular, como a Gene Ontology e a Sequence Ontology. Essas interfaces foram testadas por usuários com experiências nas áreas de Bioinformática e Banco de Dados, os quais responderam a questionários para avaliá-las. O resultado apresentou qualificações muito boas em diversos quesitos avaliados, como exemplo agilidade e utilidade das ferramentas. A arquitetura proposta visa estender e aperfeiçoar o ambiente de anotação Bio-TIM, desenvolvido pelo grupo de Banco de Dados do Departamento de Computação da Universidade Federal de São Carlos (UFSCar).