To see the other types of publications on this topic, follow the link: Ciencia Da Computacao Ou Informatica.

Dissertations / Theses on the topic 'Ciencia Da Computacao Ou Informatica'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Ciencia Da Computacao Ou Informatica.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Abreu, Jean Faber Ferreira de. "Quantum games from biophysical Hamiltonians and a sub-neuronal optimization criterion of the information." Laboratório Nacional de Computação Científica, 2006. http://www.lncc.br/tdmc/tde_busca/arquivo.php?codArquivo=108.

Full text
Abstract:
The Theory of Games is a mathematical formalism used to analyze conflicts between two or more parts. In those conflicts, each part has a group of actions (strategies) that aids them in the optimization of their objectives. The objectives of the players are the rewards (payoffs) given according to their chosen strategy. By quantizing a game, advantages in operational efficiency and in the stability of the game solutions are demonstrated. In a quantum game, the strategies are operators that act on an isolated system. A natural issue is to consider a game in an open system. In this case the strategies are changed by Kraus operators which represent a natural measurement of the environment. We want to find the necessary physical conditions to model a quantum open system as a game. To analyze this issue we applied the formalism of Quantum Operations on the Fröhlich system and we described it as a model of Quantum Game. The interpretation is a conflict among different configurations of the environment which, by inserting noise in the main system exhibits regimes of minimum loss of information. On the other hand, the model of Fröhlich has been used to describe the biophysical dynamics of the neuronal microtubules. By describing the model of Fröhlich in the Quantum Game formalism, we have shown that regimes of stability may exist even under physiological conditions. From the evolutionary point of view, the Theory of Games can be the key to describe the natural optimization at sub-neuronal levels.
A Teoria de Jogos (TJs) é um formalismo matemático usado para analisar situações de conflitos entre duas ou mais partes. Nesses conflitos, cada parte possui um conjunto de ações (estratégias) que auxilia na otimização de seus objetivos. Os objetivos dos jogadres são as recompensas (payoffs) que cada um recebe de acordo com a estratégia adotada. Ao se quantizar um jogo, mostra-se ganhos em eficiência operacional e ganhos na estabilidade das soluções. Em um jogo quântico (JQ), as estratégias são operadores que atuam num sistema isolado. Uma questão natural é considerar um jogo num sistema aberto. Nesta situação as estratégias são trocadas por operadores de Kraus que representam uma medida natural do ambiente. Nosso interesse é encontrar as condições físicas necessáriaas para modelarmos um sistema quântico aberto como um jogo. Para analisar essa questão aplicamos o formalismo de Operações Quânticas (OQs) sobre o sistema de Fröhlich e o apresentamos como um modelo de JQ. A interpretação é um conflito entre diferentes configurações do ambiente que, ao inserirem ruído no sistema principal, exibem regiões de mínima perda de informação. O modelo de Fröhlich vem sendo usado para descrever a dinâmica biofísica dos microtúbulos neuronais. Ao estruturamos o modelo de Fröhlich nos JQs, mostramos que as regiões de estabilidade podem existir sob condições fisiológicas. Usando o aspecto evolucionista, a TJs pode ser a chave para a descrição de processos de otimização da informação em nível sub-neuronal.
APA, Harvard, Vancouver, ISO, and other styles
2

Heredia, Leonardo Rodriguez. "Transforma??o de modelos de processos de neg?cio em BPMN para modelos de sistema utilizando casos de uso da UML." Pontif?cia Universidade Cat?lica do Rio Grande do Sul, 2012. http://tede2.pucrs.br/tede2/handle/tede/5169.

Full text
Abstract:
Made available in DSpace on 2015-04-14T14:49:45Z (GMT). No. of bitstreams: 1 438602.pdf: 1994981 bytes, checksum: a5439343e1d91aaf3b5b229c798861a5 (MD5) Previous issue date: 2012-01-26
The business processes models designed by business analysts act as requirement source to model information systems that may give support to these business processes. Transforming a business process model into a system model is not simple. The notation or language used to design business process model is different from the one used to design the system model. Today, BPMN is the pattern to build process models and UML is the pattern to design system models. The goal of this research is to present a method that helps the transformation business process model created in BPMN to system model using UML use cases. The transformation occurs through analysis of how each business element from a BPMN diagram can result in UML use cases elements. The method presents many alternatives to transform a BPMN element into a UML use case, by identifying the relationships and the initial information of cases descriptions
Os modelos de processos de neg?cio definidos pelos analistas de neg?cio servem como fonte de requisitos para a modelagem dos sistemas de informa??o que podem ser constru?dos para dar suporte a esses processos. A transforma??o de um modelo em n?vel de neg?cio para um modelo em n?vel de sistema n?o ? trivial. A nota??o ou linguagem utilizada para modelar o neg?cio ? diferente da utilizada para modelar sistema. Atualmente a BPMN ? a nota??o padr?o para constru??o de modelos de processos de neg?cio e a UML ? a linguagem padr?o para modelagem de sistemas. O objetivo desse trabalho ? apresentar um m?todo que auxilie na transforma??o de modelos de processos de neg?cio feitos em BPMN para modelos de sistema utilizando casos de uso da UML. A transforma??o ? realizada atrav?s da an?lise de como cada elemento de um diagrama BPMN pode dar origem a elementos de casos de uso da UML. O m?todo apresenta diferentes possibilidades de transformar um elemento da BPMN em casos de uso da UML, identificando os relacionamentos e informa??es iniciais da descri??o dos casos de uso
APA, Harvard, Vancouver, ISO, and other styles
3

Rodrigues, Bernardo Araujo. "Corinda: heurísticas concorrentes para quebra de senhas." Universidade Federal de Goiás, 2018. http://repositorio.bc.ufg.br/tede/handle/tede/8936.

Full text
Abstract:
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2018-10-01T15:53:01Z No. of bitstreams: 2 Dissertação - Bernardo Araujo Rodrigues - 2018.pdf: 3067186 bytes, checksum: 3e1e3581eaee095c176a4e930796f9cd (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2018-10-02T11:43:06Z (GMT) No. of bitstreams: 2 Dissertação - Bernardo Araujo Rodrigues - 2018.pdf: 3067186 bytes, checksum: 3e1e3581eaee095c176a4e930796f9cd (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Made available in DSpace on 2018-10-02T11:43:06Z (GMT). No. of bitstreams: 2 Dissertação - Bernardo Araujo Rodrigues - 2018.pdf: 3067186 bytes, checksum: 3e1e3581eaee095c176a4e930796f9cd (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-08-27
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES
This work proposes the development of a software with the purpose of cracking passwords based on concurrent heuristic algorithms, first order model theory and statistical inference. The proposed methodology is developed on the Go programming language, with focus on communicating sequential processes. The software uses concurrent heuristic algorithms based on statistical patterns derived from sample sets to perform password cracking. Distinct statistical distributions are detected on sample sets. The software is able to crack significant portions of three diferente password sets in short periods of time. It is concluded that concurrent heuristic algorithms are a viable alternative to perform Central Processing Unit password cracking and can be used to raise awareness amonsgt users about the importance of high entropy passwords and digital privacy.
Propõe-se neste trabalho o desenvolvimento de software para quebra de senhas baseado em algoritmos heurísticos concorrentes, teoria dos modelos de primeira ordem e inferência estatística. A metodologia proposta é desenvolvida na linguagem de programação Go, que possui foco em processos sequenciais comunicantes. O software utiliza algoritmos heurísticos concorrentes criados a partir de padrões estatísticos identificados em conjuntos de amostras para realizar quebra de senhas. O software é capaz de quebrar porções significativas de três diferentes conjuntos de senhas em curto período de tempo. Conclui-se que heurísticas concorrentes são alternativa viável para realizar a quebra de senhas em Unidades Centrais de Processamento, podendo ser utilizada para conscientizar usuários sobre a importância de senhas de alta entropia e privacidade digital.
APA, Harvard, Vancouver, ISO, and other styles
4

Xavier, Clarissa Castell? "Learning non-verbal relations under open information extraction paradigm." Pontif?cia Universidade Cat?lica do Rio Grande do Sul, 2014. http://tede2.pucrs.br/tede2/handle/tede/5275.

Full text
Abstract:
Made available in DSpace on 2015-04-14T14:50:19Z (GMT). No. of bitstreams: 1 466321.pdf: 1994049 bytes, checksum: fbbeef81814a876679c25f4e015925f5 (MD5) Previous issue date: 2014-03-12
O paradigma Open Information Extraction - Open IE (Extra??o Aberta de Informa??es) de extra??o de rela??es trabalha com a identifica??o de rela??es n?o definidas previamente, buscando superar as limita??es impostas pelos m?todos tradicionais de Extra??o de Informa??es como a depend?ncia de dom?nio e a dif?cil escalabilidade. Visando estender o paradigma Open IE para que sejam extra?das rela??es n?o expressas por verbos a partir de textos em ingl?s, apresentamos CompIE, um componente que aprende rela??es expressas em compostos nominais (CNs), como (oil, extracted from, olive) - (?leo, extra?do da, oliva) - do composto nominal olive oil - ?leo de oliva, ou em pares do tipo adjetivo-substantivo (ASs), como (moon, that is, gorgeous) - (lua, que ?, linda) - do AS gorgeous moon (linda lua). A entrada do CompIE ? um arquivo texto, e sua sa?da ? um conjunto de triplas descrevendo rela??es bin?rias. Sua arquitetura ? composta por duas tarefas principais: Extrator de CNs e ASs (1) e Interpretador de CNs e ASs (2). A primeira tarefa gera uma lista de CNs e ASs a partir do corpus de entrada. A segunda tarefa realiza a interpreta??o dos CNs e ASs gerando as triplas que descrevem as rela??es extra?das do corpus. Para estudar a viabilidade da solu??o apresentada, realizamos uma avalia??o baseada em hip?teses. Um prot?tipo foi constru?do com o intuito de validar cada uma das hip?teses. Os resultados obtidos mostram que nossa solu??o alcan?a 89% de Precis?o e demonstram que o CompIE atinge sua meta de estender o paradigma Open IE extraindo rela??es expressas dentro dos CNs e ASs.
The Open Information Extraction (Open IE) is a relation extraction paradigm in which the target relationships cannot be specified in advance, and it aims to overcome the limitations imposed by traditional IE methods, such as domain-dependence and scalability. In order to extend Open IE to extract relationships that are not expressed by verbs from texts in English, we introduce CompIE, a component that learns relations expressed in noun compounds (NCs), such as (oil, extracted from, olive) from olive oil, or in adjectivenoun pairs (ANs), such as (moon, that is, gorgeous) from gorgeous moon. CompIE input is a text file, and the output is a set of triples describing binary relationships. The architecture comprises two main tasks: NCs and ANs Extraction (1) and NCs and ANs Interpretation (2). The first task generates a list of NCs and ANs from the input corpus. The second task performs the interpretation of NCs and ANs and generates the tuples that describe the relations extracted from the corpus. In order to study CompIE s feasibility, we perform an evaluation based on hypotheses. In order to implement the strategies to validate each hypothesis we have built a prototype. The results show that our solution achieves 89% Precision and demonstrate that CompIE reaches its goal of extending Open IE paradigm extracting relationships within NCs and ANs.
APA, Harvard, Vancouver, ISO, and other styles
5

Oliveira, Kleinner Silva Farias de. "Composi??o de UML Profiles." Pontif?cia Universidade Cat?lica do Rio Grande do Sul, 2008. http://tede2.pucrs.br/tede2/handle/tede/5023.

Full text
Abstract:
Made available in DSpace on 2015-04-14T14:49:00Z (GMT). No. of bitstreams: 1 404134.pdf: 1945170 bytes, checksum: b8a0273e017edb542534fd86a3d269e2 (MD5) Previous issue date: 2008-02-28
Com o sucesso da MDA (Model Driven Architecture) e da UML (Unified Modeling Language), modelos est?o substituindo c?digo como o principal artefato de desenvolvimento de software. Em MDA, a transforma??o e a composi??o de modelos s?o duas atividades essenciais. Enquanto a transforma??o de modelos tem sido amplamente pesquisada e documentada, a composi??o de modelos precisa de mais investiga??o. Com a MDA, surgiram tr?s desafios: (i) criar linguagens de modelagem espec?ficas de dom?nios (DSML); (ii) compor DSML; (iii) compor modelos representados em DSML. A UML permite a constru??o de DSML atrav?s de UML profiles, por?m n?o oferece um mecanismo adequado para tais profiles. Neste contexto, o presente trabalho apresenta uma proposta de mecanismo de composi??o de UML profiles fundamentado em regras de composi??o, regras de transforma??o de modelos, estrat?gias de composi??o, estrat?gia de compara??o e regras de compara??o. Um modelo formal deste mecanismo foi constru?do utilizando a linguagem de modelagem formal Alloy e foi realizada uma an?lise autom?tica do modelo usando Alloy Analyzer. Al?m disso, uma ferramenta de software foi constru?da com o objetivo de validar o mecanismo e automatizar a abordagem.
APA, Harvard, Vancouver, ISO, and other styles
6

Orozco, Alex Mulattieri Suarez. "Linha de produtos de testes baseados em modelos." Pontif?cia Universidade Cat?lica do Rio Grande do Sul, 2008. http://tede2.pucrs.br/tede2/handle/tede/5047.

Full text
Abstract:
Made available in DSpace on 2015-04-14T14:49:06Z (GMT). No. of bitstreams: 1 412371.pdf: 1987061 bytes, checksum: d365ca0a7a380c98bc88e9ecf3a221d1 (MD5) Previous issue date: 2008-12-23
Com a evolu??o das metodologias de desenvolvimento de software, novos desafios v?o surgindo junto com este avan?o. Um dos desafios fica a cargo de como garantir a qualidade do software desenvolvido. Diversos pesquisadores desenvolvem continuamente diversas abordagens de teste de software para acompanhar esta evolu??o. Uma das abordagens que visa prover o aumento da qualidade ? atrav?s de testes de software baseados em modelos. Existem diversas formas de realiza??o de testes de software baseados em modelos, garantindo um amplo leque de possibilidades. Uma forma de integrar estas possibilidades ? atrav?s da aplica??o dos conceitos de linha de produtos de software. Este trabalho prop?e a realiza??o de uma arquitetura de linha de produtos de software para integrar as diferentes t?cnicas de testes baseados em modelos
APA, Harvard, Vancouver, ISO, and other styles
7

Viccari, Leonardo Davi. "Automacao de teste de software atraves de linhas de produtos e testes baseados em modelos." Pontif?cia Universidade Cat?lica do Rio Grande do Sul, 2010. http://tede2.pucrs.br/tede2/handle/tede/5116.

Full text
Abstract:
Made available in DSpace on 2015-04-14T14:49:29Z (GMT). No. of bitstreams: 1 427824.pdf: 1081749 bytes, checksum: c8c69e3ba36c9f3bab710bcbfe4774f4 (MD5) Previous issue date: 2010-03-12
Com o crescimento da depend?ncia de in?meras atividades humanas por sistemas computacionais, cresce tamb?m a expectativa dos usu?rios, que querem n?o apenas a automa??o de processos, mas tamb?m crescentes qualidade e agilidade na entrega de informa??es e servi?os. A forma mais difundida de garantia de cumprimento dos requisitos de um sistema ? o teste de software. Apesar de trazerem indispens?veis benef?cios ao processo de constru??o de software, os testes de software ainda s?o atividades extremamente manuais, repetitivas e, por vezes, artesanais. O uso de modelos formais para descrever o comportamento e a estrutura de um sistema s?o t?cnicas baseadas na matem?tica, comprovadas e aceitas, que em muito acrescentam na tarefa de caracterizar de forma precisa e n?o amb?gua um sistema. A disciplina de testes baseados em modelos compreende uma t?cnica onde os testes a serem realizados s?o definidos automaticamente a partir do modelo da aplica??o. Uma das formas de realizar as ideias presentes na t?cnica de testes baseados em modelos, tirando proveito do reuso de componentes similares de software a fim de diminuir o esfor?o sem perder qualidade ? a engenharia de linha de produto de software. O presente trabalho busca aliar t?cnicas de gera??o de testes baseados em modelos formais a t?cnicas de engenharia de linha de produto de software, a fim de automatizar etapas manuais da gera??o e execu??o de casos de teste. Dessa forma, ? proposta uma arquitetura baseada nos conceitos citados, e concretizada atrav?s da implementa??o de uma ferramenta baseada no conceito de plug-ins, a fim de validar a ideia proposta.
APA, Harvard, Vancouver, ISO, and other styles
8

Santos, Vinicius Souza dos. "Uma Abordagem para Seleção de Equipes Tecnicamente Qualificadas para Implementação de Projetos de Software Vinicius Souza dos Santos." Universidade Federal da Paraí­ba, 2014. http://tede.biblioteca.ufpb.br:8080/handle/tede/6124.

Full text
Abstract:
Made available in DSpace on 2015-05-14T12:36:49Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 4670372 bytes, checksum: 4a27df26b20a2ccb05b5f1cbbcc66103 (MD5) Previous issue date: 2014-02-11
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES
Due to the current needs and high demand for software products with more quality, various approaches for software development have been proposed. Among such approaches, Software Product Line has emerged as a promising approach for improving software quality and reducing costs and development time due to its high capacity for promoting software reuse. As another promising approach, Distributed Software Development has been adopted by organizations as a consequence of globalization, making possible to find skilled software professionals and more attractive costs in organizations spread throughout the world. By adopting such approaches together, domain experts can be found in several outsourcing or even insourcing software development teams around the world. However, even adopting such approaches to improve the software quality, is not possible to guarantee the software quality if software development teams do not have the necessary and specific knowledge to implement each module. So, a key question arises: which teams are more technically qualified to develop each module identified in a software project? Considering only ten software development teams and ten software modules, it is possible to identify 1010 combinations of modules and teams, in other words, 10.000.000.000 possible arrangements. Clearly, this is a complex process to be done by project managers based on their experience, since a large number of combinations can be identified with a relatively small number of teams and software modules. Thus any ad-hoc decision making can be complex, inefficient and error-prone. In order to provide support for recommending qualified global software teams in Software Product Line projects, this dissertation presents a decision support approach that identifies a set of technically qualified software development teams for each software module. To achieve such a goal, the proposed approach is based on technical requirements of software modules and technical capabilities of software development teams. The proposed approach is structured in four stages. The first stage is intended to produce an artifact that represents the technical requirements expected to develop each software module. Based on such requirements, the second stage is intended to represent the technical capabilities of all candidate software development teams. Then, the third stage aims to define a policy that guides the selection of such teams. Finally, the fourth stage maps the information collected in earlier stages into a fuzzy logic algorithm and performs the selection of technically qualified teams. As output, for each software module, a recommendation is generated that indicates a set of candidate teams that have the most appropriate technical skills to implement the software module
Devido às necessidades atuais e grande demanda de produtos de software com cada vez mais qualidade, várias abordagens para desenvolvimento de software foram desenvolvidas. Entre estas, as Linhas de Produtos de Software surgiram como uma abordagem promissora para a melhoria da qualidade de software e redução de custos e prazos devido a sua alta capacidade de reúso. Outra abordagem promissora que tem sido adotada pelas organizações, como consequência da globalização, é o Desenvolvimento Distribuído de Software, pois a partir dela é possível encontrar mão de obra qualificada e custos mais atrativos em empresas espalhadas pelo mundo. Ao adotar conjuntamente essas abordagens, especialistas de domínio podem ser encontrados em várias equipes terceirizadas ou mesmo equipes de subsidiárias ou filiais de todo o mundo. Todavia, mesmo utilizando-se de abordagens que visam melhorar a qualidade dos produtos de software criados, não se pode garantir a qualidade dos mesmos se as equipes não possuírem os conhecimentos necessários e específicos para implementação dos diversos módulos de software. Assim, surge uma questão primordial: quais equipes são tecnicamente mais qualificadas para desenvolver cada módulo identificado num projeto de software? Considerando apenas dez equipes e dez módulos de software, é possível identificar 1010 combinações entre módulos e equipes, ou seja, 10.000.000.000 de arranjos possíveis. Claramente, esse é um processo complexo para ser realizado pelo gerente de projetos utilizando apenas sua experiência, uma vez que um grande número de combinações pode ser identificado com um número relativamente pequeno de equipes e módulos de software. Assim, qualquer decisão ad-hoc tomada pode ser complexa, ineficiente e sujeita a erros. A fim de fornecer suporte para escolha de equipes distribuídas de desenvolvimento de software, podendo inclusive o projeto estar integrado em um cenário de Linha de Produtos de Software, este trabalho apresenta uma abordagem de apoio à decisão que identifica um conjunto de equipes qualificadas tecnicamente para o desenvolvimento de cada módulo de software, baseado em requisitos técnicos dos módulos e capacidades técnicas das equipes. A abordagem proposta está estruturada em quatro etapas. A primeira tem a intenção de produzir um artefato que representa os requisitos técnicos esperados para desenvolver cada módulo de software. Com base em tais exigências, a segunda etapa tem por objetivo representar as capacidades técnicas de todas as equipes candidatas. Em seguida, a terceira etapa visa à definição de uma política que rege a seleção de equipes. Por fim, a quarta etapa cruza as informações coletadas nas fases anteriores em um algoritmo de lógica fuzzy e realiza a seleção das equipes. Como saída, para cada módulo de software é gerado uma recomendação que indica o conjunto de equipes candidatas que possuem as qualificações técnicas mais adequadas para implementar os módulos de softwares segundo a política de seleção adotada
APA, Harvard, Vancouver, ISO, and other styles
9

Abreu, Jean Faber Ferreira de. "Jogos quânticos a partir de Hamiltonianos biofísicos e um critério de otimização sub-neuronal da informação." Laboratório Nacional de Computação Científica, 2006. https://tede.lncc.br/handle/tede/10.

Full text
Abstract:
Made available in DSpace on 2015-03-04T18:50:17Z (GMT). No. of bitstreams: 1 Apresentacao.pdf: 96667 bytes, checksum: e7f1fe5d7d1c5dc220ec648e01fc9e42 (MD5) Previous issue date: 2006-10-10
Coordenacao de Aperfeicoamento de Pessoal de Nivel Superior
The Theory of Games is a mathematical formalism used to analyze conflicts between two or more parts. In those conflicts, each part has a group of actions (strategies) that aids them in the optimization of their objectives. The objectives of the players are the rewards (payoffs) given according to their chosen strategy. By quantizing a game, advantages in operational efficiency and in the stability of the game solutions are demonstrated. In a quantum game, the strategies are operators that act on an isolated system. A natural issue is to consider a game in an open system. In this case the strategies are changed by Kraus operators which represent a natural measurement of the environment. We want to find the necessary physical conditions to model a quantum open system as a game. To analyze this issue we applied the formalism of Quantum Operations on the Fröhlich system and we described it as a model of Quantum Game. The interpretation is a conflict among different configurations of the environment which, by inserting noise in the main system exhibits regimes of minimum loss of information. On the other hand, the model of Fröhlich has been used to describe the biophysical dynamics of the neuronal microtubules. By describing the model of Fröhlich in the Quantum Game formalism, we have shown that regimes of stability may exist even under physiological conditions. From the evolutionary point of view, the Theory of Games can be the key to describe the natural optimization at sub-neuronal levels.
A Teoria de Jogos (TJs) é um formalismo matemático usado para analisar situações de conflitos entre duas ou mais partes. Nesses conflitos, cada parte possui um conjunto de ações (estratégias) que auxilia na otimização de seus objetivos. Os objetivos dos jogadres são as recompensas (payoffs) que cada um recebe de acordo com a estratégia adotada. Ao se quantizar um jogo, mostra-se ganhos em eficiência operacional e ganhos na estabilidade das soluções. Em um jogo quântico (JQ), as estratégias são operadores que atuam num sistema isolado. Uma questão natural é considerar um jogo num sistema aberto. Nesta situação as estratégias são trocadas por operadores de Kraus que representam uma medida natural do ambiente. Nosso interesse é encontrar as condições físicas necessáriaas para modelarmos um sistema quântico aberto como um jogo. Para analisar essa questão aplicamos o formalismo de Operações Quânticas (OQs) sobre o sistema de Fröhlich e o apresentamos como um modelo de JQ. A interpretação é um conflito entre diferentes configurações do ambiente que, ao inserirem ruído no sistema principal, exibem regiões de mínima perda de informação. O modelo de Fröhlich vem sendo usado para descrever a dinâmica biofísica dos microtúbulos neuronais. Ao estruturamos o modelo de Fröhlich nos JQs, mostramos que as regiões de estabilidade podem existir sob condições fisiológicas. Usando o aspecto evolucionista, a TJs pode ser a chave para a descrição de processos de otimização da informação em nível sub-neuronal.
APA, Harvard, Vancouver, ISO, and other styles
10

Peralta, Karine de Pinho. "Estrat?gia para especifica??o e gera??o de casos de teste a partir de modelos UML." Pontif?cia Universidade Cat?lica do Rio Grande do Sul, 2009. http://tede2.pucrs.br/tede2/handle/tede/5041.

Full text
Abstract:
Made available in DSpace on 2015-04-14T14:49:04Z (GMT). No. of bitstreams: 1 410387.pdf: 1737512 bytes, checksum: be615bfd6c76a20642c89fd02bd4c48e (MD5) Previous issue date: 2009-01-08
Com a expans?o dos sistemas computacionais e com a populariza??o dos servi?os providos pela Internet, ? crescente a preocupa??o dos engenheiros de software com a seguran?a dos sistemas que desenvolvem. O volume de informa??es confidenciais que trafega pela Internet ? cada vez maior, tornando essencial a avalia??o de seguran?a destes sistemas antes de entreg?-los a seus usu?rios. Entretanto, o tempo que dedicam em seus projetos ? realiza??o de testes para avaliar este aspecto ? pequeno, fazendo com que softwares inseguros sejam liberados no mercado. Verificar o n?vel de seguran?a de um software n?o ? trivial. ? preciso considerar este aspecto desde a fase de projeto do sistema, quando o modelo ainda est? sendo elaborado. Uma limita??o ? a defici?ncia existente na ?rea de seguran?a, seja em rela??o aos modelos, que prov?em poucas estruturas para representar este aspecto, ou ? pouca quantidade de ferramentas, documentos e checklists explicando como conduzir a execu??o de testes de seguran?a. Neste contexto, vem se tornando popular uma t?cnica conhecida como teste baseado em modelos. Nesta, os testes a serem realizados s?o definidos automaticamente a partir do modelo da aplica??o, de acordo com os aspectos desejados. Diversos trabalhos prop?em modelos para especificar os mais variados requisitos, como funcionais e de desempenho, mas poucos se dedicam a definir uma forma de descrever aspectos de seguran?a. Sendo assim, este trabalho prop?e alguns estere?tipos UML para especificar situa??es que podem comprometer a seguran?a de um software, al?m de um algoritmo que analisa estes e gera, automaticamente, casos de teste a partir do modelo. Desta forma, ? poss?vel assinalar, atrav?s da inser??o de estere?tipos no modelo, partes do sistema que podem conter vulnerabilidades, e, posteriormente, executar os casos gerados para verificar a ocorr?ncia destas no software final. A elabora??o deste trabalho tem dois objetivos principais: auxiliar durante a fase de implementa??o do software, prevendo situa??es que possam comprometer sua seguran?a e orientando os desenvolvedores, e permitir a gera??o automatizada de casos de teste de seguran?a a partir das informa??es inseridas.
APA, Harvard, Vancouver, ISO, and other styles
11

Paiva, Natasha do Nascimento. "Análise e conversão de algoritmos criptográficos para forma normal conjuntiva." Laboratório Nacional de Computação Científica, 2017. https://tede.lncc.br/handle/tede/266.

Full text
Abstract:
Submitted by Maria Cristina (library@lncc.br) on 2017-08-10T18:19:02Z No. of bitstreams: 1 dissertacao Natasha.pdf: 915040 bytes, checksum: 8e2b079465523b98d5e66edeb28a679c (MD5)
Approved for entry into archive by Maria Cristina (library@lncc.br) on 2017-08-10T18:19:15Z (GMT) No. of bitstreams: 1 dissertacao Natasha.pdf: 915040 bytes, checksum: 8e2b079465523b98d5e66edeb28a679c (MD5)
Made available in DSpace on 2017-08-10T18:19:25Z (GMT). No. of bitstreams: 1 dissertacao Natasha.pdf: 915040 bytes, checksum: 8e2b079465523b98d5e66edeb28a679c (MD5) Previous issue date: 2017-02-17
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Nowadays, besides the growing popularity of cryptography, there is a big interest from researchers in the development of strategies that study and analyze the current crypto- graphic methods. This is due to the fact that current methods are based on mathematical problems considered safe, however, researchs points to security flaws in the presence of a quantum computer. In this work we created and developed a method capable of translating symmetric cryp- tographic algorithms into Conjunctive Normal Form and then we analyze the obtained output. Initially, we studied the cryptographic algorithm model of interest and used the software CBMC, a bounded model checker software. This software returns a SAT system to be solved, i.e, we rewrite the problem as SAT. In addition, the system can be interpreted as a graph, so we reduce it by implementing a depth-first-search before solving it, to make the problem feasible for resolution. The method proposed is then submitted to a round of tests, aiming to validate the developed tool.
Atualmente, além da popularidade da criptografia estar crescendo consideravelmente, existe grande interesse em realizar pesquisas para o desenvolvimento de estratégias que estudem e analisem os métodos criptográficos utilizados atualmente. Isto se dá pelo fato dos métodos atuais serem baseados em problemas matemáticos considerados seguros, entretanto, pesquisas atuais apontam para falhas de segurança na presença de um computador quântico. Este trabalho consiste em traduzir os algoritmos criptográficos simétricos para o sistema SAT e analisar a saída obtida. Para isto, inicialmente estudamos o modelo do algoritmo criptográfico de interesse e inserimos ele em um software verificador de modelos (CBMC). Este software nos retorna um sistema SAT a ser resolvido, ou seja, reescrevemos o problema como SAT. Além disto, o sistema pode ser interpretado como um grafo, então reduzimos o mesmo através de uma busca em profundidade antes de resolvê-lo, para tornar o problema factível de resolução. A técnica proposta é submetida a um conjunto de testes, utilizando meios propostos pela literatura e alguns meios originais do trabalho, para validar a ferramenta desenvolvida.
APA, Harvard, Vancouver, ISO, and other styles
12

Abdala, Daniel Duarte. "Uma metodologia para criação de cérebros médios e mensuração da atrofia relativa do córtex." Florianópolis, SC, 2005. http://repositorio.ufsc.br/handle/123456789/102674.

Full text
Abstract:
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação.
Made available in DSpace on 2013-07-16T01:36:27Z (GMT). No. of bitstreams: 1 222903.pdf: 10700721 bytes, checksum: febbe9a0a9cd44dffbe0ca92a0187d2e (MD5)
Devido à grande variabilidade anatômica relativa ao cérebro do ser humano, o seu estudo implica uma área incerta da ciência, e esforços direcionados ao objetivo de gerar um mapeamento dessa complexa estrutura obtêm constantes sucessos, mas também fracassos. Atualmente, com a crescente capacidade computacional e com a disponibilidade de metodologias para alinhamento de imagens, novos passos direcionados ao esforço de mapear o cérebro humano estão sendo dados. A existência de um "cérebro médio", que seja estatisticamente representativo em relação às características de uma dada população, pode vir a auxiliar o acompanhamento da evolução de doenças degenerativas cerebrais, ao fornecer uma base sólida para identificação de anomalias, assim como para servir de base para a tomada de decisão clínica. Este trabalho apresenta o resultado de dois anos de pesquisa e desenvolvimento junto ao projeto Cyclops, no intuito da elaboração de uma metodologia de registro volumétrico de imagens médicas e conseqüente geração de mapas médios do cérebro humano. Como fator motivador deste trabalho desenvolveu-se uma metodologia para a avaliação do grau de atrofia global e local do córtex cerebral, com o intuito de auxiliar os médicos neurorradiologistas no processo de diagnóstico precoce da doença de Alzheimer, assim como no acompanhamento e predição da evolução estatisticamente representativa do estado de MCI- Mild Cognitive Inparment para a doença de Alzheimer. Ao final da pesquisa obteve-se: a) descrição metodológica de geração de cérebros médios. b) uma ferramenta para registro de imagens mono-modais/multi-subject; c) ferramenta para geração de cérebros médios; d) ferramenta de geração de mapas de cores para salientar regiões atrofiadas do córtex; e) todas as funcionalidades discutidas neste trabalho sob a forma de um framework extensível.
APA, Harvard, Vancouver, ISO, and other styles
13

Matos, Everton de. "Context-aware information services provision for IoT environments." Pontif?cia Universidade Cat?lica do Rio Grande do Sul, 2016. http://tede2.pucrs.br/tede2/handle/tede/6836.

Full text
Abstract:
Submitted by Setor de Tratamento da Informa??o - BC/PUCRS (tede2@pucrs.br) on 2016-07-18T20:23:46Z No. of bitstreams: 1 DIS_EVERTON_DE_MATOS_COMPLETO.pdf: 1251543 bytes, checksum: f9774bc8a409974553769c0c5777f444 (MD5)
Made available in DSpace on 2016-07-18T20:23:46Z (GMT). No. of bitstreams: 1 DIS_EVERTON_DE_MATOS_COMPLETO.pdf: 1251543 bytes, checksum: f9774bc8a409974553769c0c5777f444 (MD5) Previous issue date: 2016-03-29
The computing paradigm called Internet of Things (IoT) will connect billions of devices deployed around the world together in a near future. In the last years, IoT is gaining more attention. This paradigm has become popular by embedding mobile network and processing power into a wide range of physical computing devices used in everyday life of many people. An important element of the IoT is a middleware, which is a system able to abstract the management of physical devices and to provide services based on the information from these devices. The services provided are used by application clients to perform queries and obtain environmental information. In this way, it is already a subject in literature studies that address middleware systems not only interoperability of devices, but also context awareness feature. Context-aware is an important feature of IoT systems. This feature makes easy to discover, understand, and store relevant information related to devices. This information can be used for a refined provision of services based on the environment context and also for decision making. This work aims to present the Context-Aware System (CONASYS), that is a system to provide services of contextualized information about IoT devices in heterogeneous environments. The system is attached to COMPaaS IoT middleware and is able to act accordingly to the environment that it is inserted. We present in details the architecture of CONASYS, the technical issues related to the implementation of the system and perform some tests based in a real-world scenario. We also present some related work. Our objective is to provide a well-defined range of contextualized services that meet the users needs without specific knowledge of the environment, improving users Quality of Experience (QoE).
O paradigma da computa??o Internet das Coisas (IoT) ir? conectar bilh?es de dispositivos ao redor do mundo em um futuro pr?ximo. Nos ?ltimos anos, a IoT vem ganhando mais aten??o. Esse paradigma tornou-se popular por embarcar redes m?veis e pelo seu poder de processamento em uma vasta gama de dispositivos computadorizados utilizados na vida cotidiana de muitas pessoas. Um elemento importante da IoT ? o middleware, que ? um sistema capaz de abstrair a gest?o de dispositivos e prover servi?os baseados nestes dispositivos. Os servi?os providos s?o usados por aplica??es para obter informa??es do ambiente. Desta forma, existem muitas pesquisas relacionadas com o desenvolvimento de middleware que abordam n?o s? interoperabilidade dos dispositivos, mas tamb?m a caracter?stica de ci?ncia de contexto. Ci?ncia de contexto ? uma caracter?stica importante dos sistemas da IoT. Esta caracter?stica facilita o descobrimento, compreens?o e armazenamento de informa??es relevantes relacionadas aos dispositivos. Estas informa??es podem ser usadas para prover servi?os e tomada de decis?o com base no contexto do ambiente. para provimento de servi?os de informa??o contextulizada sobre dispositivos da IoT em ambientes heterog?neos. O sistema ? acoplado ao middleware COMPaaS e ? capaz de agir conforme o ambiente que est? inserido. A arquitetura do CONASYS ? apresentada em detalhes, assim como os testes realizados. Nosso objetivo ? prover servi?os contextualizados que atendam ?s necessidades dos usu?rios que n?o possuem conhecimento espec?fico do ambiente, melhorando assim a Qualidade da Experi?ncia (QoE).
APA, Harvard, Vancouver, ISO, and other styles
14

Delfino, Samyr Santos. "Gestão da informação/comunicação em equipes de desenvolvimento Scrum." Universidade Federal da Paraí­ba, 2013. http://tede.biblioteca.ufpb.br:8080/handle/tede/6086.

Full text
Abstract:
Made available in DSpace on 2015-05-14T12:36:37Z (GMT). No. of bitstreams: 1 ArquivoTotalSamyr.pdf: 3835709 bytes, checksum: a2365f2f6f1663ccc261dc00848e6ee9 (MD5) Previous issue date: 2013-07-09
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
Processes in software development, the adoption of agile methodologies has had significant growth. Realize the difficulty in carrying out a management information / communication in an agile environment. The objective of this work was to propose a management model of information / communication for agile development teams using the Scrum Framework, respecting the needs and particularities of this Framework. The methodology adopted for this work will be divided into three distinct phases consisting of the theoretical study, field research and creation of a proposed management model of information / communication in Scrum teams.
Em processos de desenvolvimento de software, a adoção de metodologias ágeis tem tido crescimento significativo. Percebe-se a dificuldade em realizar uma gestão da informação/comunicação em um ambiente ágil. Objetiva-se com este trabalho propor um modelo de gestão da informação/comunicação para equipes ágeis de desenvolvimento que utilizam a Framework Scrum, respeitando as necessidades e particularidades existentes neste Framework. A metodologia adotada para este trabalho será subdividida em três fases distintas que consistem no estudo teórico, pesquisa de campo e criação de uma proposta de modelo de gestão de informação/comunicação em equipes Scrum.
APA, Harvard, Vancouver, ISO, and other styles
15

Ghidini, Eduardo. "Representa??o de narrativas interativas por meio de visualiza??es com dados extra?dos de redes sociais." Pontif?cia Universidade Cat?lica do Rio Grande do Sul, 2017. http://tede2.pucrs.br/tede2/handle/tede/8319.

Full text
Abstract:
Submitted by PPG Ci?ncia da Computa??o (ppgcc@pucrs.br) on 2018-10-10T20:57:07Z No. of bitstreams: 1 EDUARDO GHIDINI_DIS.pdf: 8577965 bytes, checksum: 7ff48e36f96f7a9d7a545af88149f951 (MD5)
Approved for entry into archive by Sheila Dias (sheila.dias@pucrs.br) on 2018-10-17T11:12:35Z (GMT) No. of bitstreams: 1 EDUARDO GHIDINI_DIS.pdf: 8577965 bytes, checksum: 7ff48e36f96f7a9d7a545af88149f951 (MD5)
Made available in DSpace on 2018-10-17T11:21:19Z (GMT). No. of bitstreams: 1 EDUARDO GHIDINI_DIS.pdf: 8577965 bytes, checksum: 7ff48e36f96f7a9d7a545af88149f951 (MD5) Previous issue date: 2017-03-29
The growth of data generated through the Internet increases the difficulty of gather relevant information for users. To minimize this, it is necessary to presented this information to the users in such a way that they can analyze it and extract useful information. In recent years, the use of narratives for the presentation of large volumes of data has been explored, considering its benefits. In this context, the present work aims to analyze and propose ways of presenting data, in narrative form, in the context of social networks, in order to support user interaction and data analysis. The work presents a model for the representation of narratives through visualizations, with data extracted from social networks, conceived from studies related to the areas of narratives and information visualization. The model was instantiated to enable its analysis through user studies. The studies indicated that the model has several applications, allowing the analysis of different types of data as well as its use by users with and without prior specific interests. We believe that the present work can support the construction of interactive narratives, through visualizations with data extracted from social networks, contemplating, not only the construction of the interface itself but, also, the mapping of the data to its visual representation.
O crescimento de dados gerados com o uso da Internet, faz com que, tamb?m, aumente a dificuldade de fazer com que informa??es relevantes cheguem aos usu?rios. Para que isso aconte?a, al?m do tratamento da informa??o, ? necess?rio que esta informa??o seja apresentada de tal forma que o usu?rio consiga analis?-la e extrair informa??es ?teis. Nos ?ltimos anos, vem se explorando o uso de narrativas para a apresenta??o de grandes volumes de dados, considerando-se os benef?cios desta forma de apresenta??o. Neste contexto, o presente trabalho objetiva analisar e propor formas de apresentar dados, em forma de narrativas, no contexto de redes sociais, a fim de apoiar a intera??o do usu?rio e sua an?lise dos dados. O trabalho apresenta um modelo para representa??o de narrativas por meio de visualiza??es, com dados extra?dos de redes sociais, concebido a partir de estudos relacionados ?s ?reas de narrativas e de visualiza??o de informa??es. O modelo foi instanciado para que viabilizasse a sua an?lise por meio de estudos com usu?rios. Os estudos indicam que o modelo tem variadas aplica??es, tanto no sentido de possibilitar a an?lise de diferentes tipos de dados, como, tamb?m, no que se refere ao uso por usu?rios com e sem interesse pr?vio em algum assunto espec?fico. Atrav?s do modelo proposto e do resultado de sua an?lise, acredita-se que o presente trabalho possa apoiar a constru??o de narrativas interativas neste contexto, contemplando, n?o somente a constru??o da interface em si, mas, tamb?m, o mapeamento dos dados para a sua representa??o visual.
APA, Harvard, Vancouver, ISO, and other styles
16

Fonseca, Evandro Brasil. "Resolu??o de correfer?ncia nominal usando sem?ntica em l?ngua portuguesa." Pontif?cia Universidade Cat?lica do Rio Grande do Sul, 2018. http://tede2.pucrs.br/tede2/handle/tede/8169.

Full text
Abstract:
Submitted by PPG Ci?ncia da Computa??o (ppgcc@pucrs.br) on 2018-06-19T11:37:24Z No. of bitstreams: 1 EVANDRO BRASIL FONSECA_TES.pdf: 1972824 bytes, checksum: 9fca0c499753cd9d2822c59040e826bf (MD5)
Approved for entry into archive by Sheila Dias (sheila.dias@pucrs.br) on 2018-06-26T14:40:39Z (GMT) No. of bitstreams: 1 EVANDRO BRASIL FONSECA_TES.pdf: 1972824 bytes, checksum: 9fca0c499753cd9d2822c59040e826bf (MD5)
Made available in DSpace on 2018-06-26T14:48:46Z (GMT). No. of bitstreams: 1 EVANDRO BRASIL FONSECA_TES.pdf: 1972824 bytes, checksum: 9fca0c499753cd9d2822c59040e826bf (MD5) Previous issue date: 2018-03-19
Coreference Resolution task is challenging for Natural Language Processing, considering the required linguistic knowledge and the sophistication of language processing techniques involved. Even though it is a demanding task, a motivating factor in the study of this phenomenon is its usefulness. Basically, several Natural Language Processing tasks may benefit from their results, such as named entities recognition, relation extraction between named entities, summarization, sentiment analysis, among others. Coreference Resolution is a process that consists on identifying certain terms and expressions that refer to the same entity. For example, in the sentence ? France is refusing. The country is one of the first in the ranking... ? we can say that [the country] is a coreference of [France]. By grouping these referential terms, we form coreference groups, more commonly known as coreference chains. This thesis proposes a process for coreference resolution between noun phrases for Portuguese, focusing on the use of semantic knowledge. Our proposed approach is based on syntactic-semantic linguistic rules. That is, we combine different levels of linguistic processing, using semantic relations as support, in order to infer referential relations between mentions. Models based on linguistic rules have been efficiently applied in other languages, such as: English, Spanish and Galician. In few words, these models are more efficient than machine learning approaches when we deal with less resourceful languages, since the lack of sample-rich corpora may produce a poor training. The proposed approach is the first model for Portuguese coreference resolution which uses semantic knowledge. Thus, we consider it as the main contribution of this thesis.
A tarefa de Resolu??o de Correfer?ncia ? um grande desafio para a ?rea de Processamento da Linguagem Natural, tendo em vista o conhecimento lingu?stico exigido e a sofistica??o das t?cnicas de processamento da l?ngua empregados. Mesmo sendo uma tarefa desafiadora, um fator motivador do estudo deste fen?meno se d? pela sua utilidade. Basicamente, v?rias tarefas de Processamento da Linguagem Natural podem se beneficiar de seus resultados, como, por exemplo, o reconhecimento de entidades nomeadas, extra??o de rela??o entre entidades nomeadas, sumariza??o, an?lise de sentimentos, entre outras. A Resolu??o de Correfer?ncia ? um processo que consiste em identificar determinados termos e express?es que remetem a uma mesma entidade. Por exemplo, na senten?a ?A Fran?a est? resistindo. O pa?s ? um dos primeiros no ranking...? podemos dizer que [o pa?s] ? uma correfer?ncia de [A Fran?a]. Realizando o agrupamento desses termos referenciais, formamos grupos de men??es correferentes, mais conhecidos como cadeias de correfer?ncia. Esta tese prop?e um processo para a resolu??o de correfer?ncia entre sintagmas nominais para a l?ngua portuguesa, tendo como foco a utiliza??o do conhecimento sem?ntico. Nossa abordagem proposta ? baseada em regras lingu?sticas sint?tico-sem?nticas. Ou seja, combinamos diferentes n?veis de processamento lingu?stico utilizando rela??es sem?nticas como apoio, de forma a inferir rela??es referenciais entre men??es. Modelos baseados em regras lingu?sticas t?m sido aplicados eficientemente em outros idiomas como o ingl?s, o espanhol e o galego. Esses modelos mostram-se mais eficientes que os baseados em aprendizado de m?quina quando lidamos com idiomas menos providos de recursos, dado que a aus?ncia de corpora ricos em amostras pode prejudicar o treino desses modelos. O modelo proposto nesta tese ? o primeiro voltado para a resolu??o de correfer?ncia em portugu?s que faz uso de conhecimento sem?ntico. Dessa forma, tomamos este fator como a principal contribui??o deste trabalho.
APA, Harvard, Vancouver, ISO, and other styles
17

Silva, Eunice Palmeira da. "Classificação de informação usando ontologias." Universidade Federal de Alagoas, 2006. http://repositorio.ufal.br/handle/riufal/852.

Full text
Abstract:
Although the positive aspects that Internet possesses and the potential it permits, there is a problematic that consists on finding needed pieces of information among the deluge of available documents on the web. Tools that are able to semantically treat the information contained in the documents which follows a structure only focused on data presentation are still lacking. The MASTER-Web system solves the problem of integrated extraction of content-pages that belong to classes which form a cluster. In this context, we propose the extension of this tool to the scientific articles classification based on ontologies. To achieve this goal, an ontology for the Artificial Intelligence domain was constructed and rule-based classification strategies were adopeted. The approach presented here employs this ontology and textual classification techniques to extract useful pieces of information from the articles in order to infer to which themes it is about. This combination led to significative results: e.g. in the texts, the system is able to identify the specific subdivisions of AI and entails conclusions, distinguishing correctlly the themes of the articles from the ones that are briefiy mentioned in the texts. The application of simple techniques and a detailed ontology lead to promising classification results, independently of the document structure, proposing an eficient and plausible solution.
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
Apesar dos aspectos positivos que a Internet possui e do potencial que permite, existe a problemática, que consiste em encontrar a informação necessária em meio a uma enorme quantidade de documentos disponíveis na rede. Faltam, ainda, ferramentas capazes de tratar semanticamente a informação contida em documentos que seguem uma estrutura preocupada apenas com a exibição dos seus dados. O sistema MASTERWeb, resolve o problema da extração integrada de páginas-conteúdo pertencentes às classes que integram um grupo (cluster ). Neste contexto propomos a extensão dessa ferramenta para a classificação de artigos científicos baseada em ontologias. Para isso foi construída uma ontologia do domínio de Inteligência Artificial e adotadas estratégias de classificação utilizando sistemas de regras. A abordagem apresentada aqui, emprega esta ontologia e técnicas de classificação textual para extrair dos artigos informações úteis, e daí inferir sobre os temas tratados nestes artigos. Essa combinação conduziu a resultados bastante significativos: por exemplo, o sistema é capaz de identificar no texto as subáreas de IA que ele aborda e deriva conclusões, distinguindo os assuntos tratados pelo artigo daqueles que são brevemente citados no texto. A aplicação de técnicas simples e uma ontologia bem formada levam a resultados de classificação promissores, independentemente da estrutura do documento, propondo uma solução eficiente e plausível.
APA, Harvard, Vancouver, ISO, and other styles
18

Botega, Leonardo Castro. "Modelo de fusão dirigido por humanos e ciente de qualidade de informação." Universidade Federal de São Carlos, 2016. https://repositorio.ufscar.br/handle/ufscar/8104.

Full text
Abstract:
Submitted by Izabel Franco (izabel-franco@ufscar.br) on 2016-10-11T12:19:26Z No. of bitstreams: 1 TeseLCB.pdf: 19957803 bytes, checksum: 66c9854c5f0067734f1a81f62cc661b0 (MD5)
Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-21T12:06:12Z (GMT) No. of bitstreams: 1 TeseLCB.pdf: 19957803 bytes, checksum: 66c9854c5f0067734f1a81f62cc661b0 (MD5)
Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-21T12:06:22Z (GMT) No. of bitstreams: 1 TeseLCB.pdf: 19957803 bytes, checksum: 66c9854c5f0067734f1a81f62cc661b0 (MD5)
Made available in DSpace on 2016-10-21T12:06:31Z (GMT). No. of bitstreams: 1 TeseLCB.pdf: 19957803 bytes, checksum: 66c9854c5f0067734f1a81f62cc661b0 (MD5) Previous issue date: 2016-01-26
Não recebi financiamento
Situational Awareness (SAW) is a cognitive process widely spread in areas that require critical decision-making and refers to the level of consciousness that an individual or team has about a situation. In the emergency management domain, the situational information inferred by decision support systems affects the SAW of human operators, which is also influenced by the dynamicity and critical nature of the events. Failures in SAW, typically caused by high levels of stress, information overload and the inherent need to perform multiple tasks, can induce human operators to errors in decision-making, resulting in risks to life, assets or to the environment. Data fusion processes present opportunities to improve human operators’ SAW and enrich their knowledge on situations. However, problems related to the quality of information can lead to uncertainties, especially when human operators are also sources of information, requiring the restructuring of the fusion process. The state of the art of data and information fusion models presents approaches with limited participation of human operators, typically reactive, besides solutions that are restricted in mechanisms to manage the quality of information throughout the fusion process. Thus, the present work presents a new information fusion model, called Quantify (Quality-aware Human-driven Information Fusion Model), whose major differentials are the greater involvement of human operators and the use of the information quality management throughout the fusion process. In order to support the Quantify model, an innovative methodology was developed for the assessment and representation of data and information quality, called IQESA (Information Quality Assessment Methodology in the Context of Emergency Situation Awareness) specialized in the context of emergency situational awareness and which also involves the human operator. In order to validate the model and the methodology, a service-oriented architecture and two emergency situation assessment systems were developed, one guided by the Quantify model and another driven by the state-of-the-art model (User-Fusion). In a case study, robbery events reported to the emergency response service of the S˜ao Paulo State Military Police (Pol´ıcia Militar do Estado de S˜ao Paulo - PMESP) were submitted to the systems and then evaluated by the PMESP operators, revealing higher rates of SAW by the application of the Quantify model. These positive results confirm the need of this new model and methodology, besides revealing an opportunity to enrich the current emergency response system used by PMESP.
Situational Awareness (SAW) is a cognitive process widely spread in areas that require critical decision-making and refers to the level of consciousness that an individual or team has about a situation. In the emergency management domain, the situational information inferred by decision support systems affects the SAW of human operators, which is also influenced by the dynamicity and critical nature of the events. Failures in SAW, typically caused by high levels of stress, information overload and the inherent need to perform multiple tasks, can induce human operators to errors in decision-making, resulting in risks to life, assets or to the environment. Data fusion processes present opportunities to improve human operators’ SAW and enrich their knowledge on situations. However, problems related to the quality of information can lead to uncertainties, especially when human operators are also sources of information, requiring the restructuring of the fusion process. The state of the art of data and information fusion models presents approaches with limited participation of human operators, typically reactive, besides solutions that are restricted in mechanisms to manage the quality of information throughout the fusion process. Thus, the present work presents a new information fusion model, called Quantify (Quality-aware Human-driven Information Fusion Model), whose major differentials are the greater involvement of human operators and the use of the information quality management throughout the fusion process. In order to support the Quantify model, an innovative methodology was developed for the assessment and representation of data and information quality, called IQESA (Information Quality Assessment Methodology in the Context of Emergency Situation Awareness) specialized in the context of emergency situational awareness and which also involves the human operator. In order to validate the model and the methodology, a service-oriented architecture and two emergency situation assessment systems were developed, one guided by the Quantify model and another driven by the state-of-the-art model (User-Fusion). In a case study, robbery events reported to the emergency response service of the S˜ao Paulo State Military Police (Pol´ıcia Militar do Estado de S˜ao Paulo - PMESP) were submitted to the systems and then evaluated by the PMESP operators, revealing higher rates of SAW by the application of the Quantify model. These positive results confirm the need of this new model and methodology, besides revealing an opportunity to enrich the current emergency response system used by PMESP.
Consciência Situacional (Situational Awareness - SAW) é um processo cognitivo amplamente difundido em áreas que demandam a tomada de decisão critica e se refere ao nível de consciência que um indivíduo ou equipe detém sobre uma situação. No domínio de gerenciamento de emergências, a informação situacional inferida por sistemas de apoio à decisão afeta a SAW de operadores humanos, a qual é também influenciada pela dinamicidade e natureza crítica dos eventos. Falhas de SAW, tipicamente provocadas pelo alto nível de stress, sobrecarga de informação e pela inerente necessidade de realização de múltiplas tarefas, podem induzir operadores humanos a erros no processo decisório e acarretar riscos `a vida, ao patrimônio ou ao meio ambiente. Processos de fusão de dados apresentam oportunidades para aprimorar a SAW de operadores humanos e enriquecer o seu conhecimento sobre situações. Entretanto, problemas referentes `a qualidade da informação podem gerar incertezas, principalmente quando operadores humanos são também fontes de informação, demandando assim a reestruturação do processo de fusão. O estado da arte em modelos de fusão de dados e informações apresenta abordagens com limitada participação de humanos, tipicamente reativa, além das soluções serem restritas em mecanismos para gerir a qualidade da informação. Assim, este trabalho apresenta um novo modelo de fusão de informações, denominado Quantify (Quality-Aware Human-Driven Information Fusion Model), cujos principais diferenciais são a intensificação da participação humana e o emprego continuo da gestão da qualidade da informação ao longo do processo de fusão. Em suporte ao modelo Quantify, foi desenvolvida uma metodologia inovadora para a avaliação e representação da qualidade de dados e informações, denominada IQESA (Information Quality Assessment Methodology in the Context of Emergency Situation Awareness), especializada no contexto de consciência situacional de emergências e que também envolve o operador humano. Para validar o modelo e a metodologia, uma arquitetura orientada a serviços e dois sistemas de avaliação de situações de emergência foram desenvolvidos, um deles orientado pelo modelo Quantify e outro dirigido pelo modelo do estado da arte (User-Fusion). Em estudo de caso, eventos de roubo relatados ao serviço de atendimento a emergências da Polícia Militar do Estado de São Paulo (PMESP) foram submetidos aos sistemas e avaliados por operadores da PMESP, revelando índices superiores de SAW pelo emprego do modelo Quantify. Tais resultados positivos corroboram com a necessidade deste novo modelo e metodologia, além de revelar uma oportunidade de enriquecimento do sistema atual de atendimento a emergências utilizado pela PMES
APA, Harvard, Vancouver, ISO, and other styles
19

Oliveira, Toni Amorim de. "M?todo de convers?o de diagrama de atividades UML para SAN e gera??o de casos de teste de software." Pontif?cia Universidade Cat?lica do Rio Grande do Sul, 2010. http://tede2.pucrs.br/tede2/handle/tede/5103.

Full text
Abstract:
Made available in DSpace on 2015-04-14T14:49:24Z (GMT). No. of bitstreams: 1 425004.pdf: 1283916 bytes, checksum: 06a02199cf1e50a23c7a99c93e1147e3 (MD5) Previous issue date: 2010-01-27
O processo de desenvolvimento de software ? uma tarefa que envolve um conjunto de atividades a serem realizadas, e em muitos casos, por equipes grandes que podem se encontrar geograficamente dispersas. Isso exige do desenvolvedor a utilizac?o de m?todos que proporcionem uma vis?o de todas as etapas desse processo de desenvolvimento. A UML (Unified Modeling Language) ? uma linguagem de modelagem que possibilita essa vis?o atrav?s do uso de diagramas que demonstram graficamente a estrutura do software em desenvolvimento. O diagrama de atividades ? utilizado para modelar o comportamento do sistema, atrav?s dos fluxos de execu??o de cada atividade desempenhada pelo mesmo. Com o objetivo de obter um modelo comportamental de sistemas computacionais apresentamos neste trabalho uma proposta de convers?o de diagramas de atividades para SAN (Stochastic Automata Networks), um formalismo matem?tico que possibilita a modelagem de sistemas em geral, a partir do qual ? poss?vel extrair ?ndices probabil?sticos relacionados aos estados, permitindo aos respons?veis pelo processo de desenvolvimento tomar decis?es sobre os recursos alocados no projeto. Com o intuito de demonstrarmos como executar a convers?o, usamos uma vers?o simplificada dos elementos do diagrama de atividades da UML, para descrever os par?metros e regras utilizadas para a convers?o proposta. Apresentamos ainda os resultados obtidos a partir do modelo SAN gerado.
APA, Harvard, Vancouver, ISO, and other styles
20

Rosa, Diórgenes Yuri Leal da. "EXEHDA-SO: uma abordagem ontológica para ciência de situação aplicada ao domínio de segurança da informação." Universidade Federal de Pelotas, 2017. http://repositorio.ufpel.edu.br:8080/handle/prefix/3841.

Full text
Abstract:
Submitted by Aline Batista (alinehb.ufpel@gmail.com) on 2018-04-18T15:04:36Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_Diorgenes_Yuri_Leal_da_Rosa.pdf: 3317198 bytes, checksum: ffad37e3b8f5606e8102f983c5628ac8 (MD5)
Approved for entry into archive by Aline Batista (alinehb.ufpel@gmail.com) on 2018-04-19T14:43:29Z (GMT) No. of bitstreams: 2 Dissertacao_Diorgenes_Yuri_Leal_da_Rosa.pdf: 3317198 bytes, checksum: ffad37e3b8f5606e8102f983c5628ac8 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Made available in DSpace on 2018-04-19T14:43:40Z (GMT). No. of bitstreams: 2 Dissertacao_Diorgenes_Yuri_Leal_da_Rosa.pdf: 3317198 bytes, checksum: ffad37e3b8f5606e8102f983c5628ac8 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-12-22
Sem bolsa
As infraestruturas computacionais modernas, típicas da Computação Ubíqua, pressupõem características de flexibilidade e de permissividade quanto a conectividade do ambiente. Estas características contribuíram ao longo dos últimos anos com a concretização da emergente Internet das Coisas, a qual estende a demanda de conectividade e, por conseguinte, eleva o tráfego em redes de computadores. Entretanto, os mesmos fatores que permitem estas evoluções também potencializam problemas no que diz respeito a Segurança da Informação. Recorrentemente são implantadas, em redes de computadores, soluções de Segurança da Informação para fins específicos, desenvolvidas em linguagens de sintaxe própria, provendo eventos em formatos também distintos. Estes fatores individualizam a análise destas soluções, o que acaba dificultando a identificação de incidentes. Neste sentido, a Ciência de Situação, enquanto estratégia capaz de integrar eventos de diferentes fontes, torna-se requisito fundamental para a implementação de controles de segurança, permitindo a flexibilidade típica da UbiComp. Considerando isto, a presente dissertação propõe uma abordagem ontológica para Ciência de Situação aplicada ao domínio de Segurança da Informação, denominada EXEHDA-SO (Execution Environment for Highly Distributed Applications - Security Ontology). Por meio de processamento de eventos heterogêneos, provenientes de diferentes fontes contextuais, busca-se uma contribuição a fase de compreensão de Ciência de Situação. O modelo EXEHDA-SO é apresentado em três fragmentos denominados Core, Scope e InterCell Analyzer. De forma a validar o modelo proposto foi desenvolvido um estudo de caso alusivo `a infraestrutura computacional da Universidade Federal de Pelotas. Nesta avaliação, considerando as características de heterogeneidade e distribuição do ambiente, foi possível observar as principais contribuições propostas nesta dissertação.
Modern computing infrastructures, typical of Ubiquitous Computing, assume characteristics of flexibility and permissiveness regarding the connectivity of the environment. These characteristics have contributed over the last few years to the emerging Internet of Things, which extends the demand for connectivity and therefore raises computer networks traffic. However, the same factors that allow these evolutions also potentiate problems with regard to Information Security. Information security solutions for specific purposes are developed in computer networks, developed in their own syntax languages, providing events in different formats. These factors individualize the analysis of these solutions, which brings difficulties to incidents identification. In this sense, Situational Science, as a strategy capable of integrating events from different sources, becomes a fundamental requirement for the security controls implementation, allowing the typical flexibility of UbiComp. Considering this, the present dissertation proposes an ontological approach to Situation Science applied to the Information Security domain, called EXEHDA-SO (Execution Environment for Highly Distributed Applications - Security Ontology). Through the processing of heterogeneous events, coming from different contextual sources, a contribution is made to the understanding phase of Situational Science. The EXEHDA-SO model is presented in three fragments called Core, Scope and InterCell Analyzer. In order to validate the proposed model a case study was developed allusive to Universidade Federal de Pelotas computational infrastructure. In this evaluation, considering the characteristics of heterogeneity and distribution of the environment, it was possible to observe the main contributions proposed in this dissertation.
APA, Harvard, Vancouver, ISO, and other styles
21

Monteiro, Douglas Machado. "A proposal for an architecture to extract information from sms messages during emergency situations." Pontifícia Universidade Católica do Rio Grande do Sul, 2015. http://hdl.handle.net/10923/7249.

Full text
Abstract:
Made available in DSpace on 2015-05-22T12:36:38Z (GMT). No. of bitstreams: 1 000468523-Texto+Completo-0.pdf: 3578868 bytes, checksum: 4d26c3b12a22330579e4b83f7414ebc4 (MD5) Previous issue date: 2015
In mass emergencies, a fair amount of information is exchanged via SMS messages. These messages tend to be informal and to contain abbreviations and misspellings, which makes them difficult to treat. This is a problem for current Information Extraction tools, especially for messages in Portuguese. This work proposes an architecture to extract information from SMS messages during emergencies. The architecture comprises four components: Linguistic Processing, Temporal Processing, Event Processing, and Information Fusion. We also defined an SMS corpus building process. From the proposal of this architecture, we conducted a case study, which included building BraCorpSMS, a corpus of SMS messages received by an electric utility company. We built a prototype in Python using NLTK to validate the architecture. The prototype had its Information Extraction components evaluated achieving Precision of 88%, Recall of 59% and balanced F-measure of 71%. The results indicate improvement opportunities, but as this is the first work for Portuguese facing processing SMS messages during emergency situations, it also serves as a roadmap for future work in the area.
Durante situações de emergência, uma grande quantidade de informação é trocada via mensagens SMS. Estas mensagens costumam ter escrita informal e contêm abreviações e erros de grafia, o que dificulta seu processamento. Este é um problema para as ferramentas de Extração de Informação atuais, especialmente para o Português. Este trabalho propõe uma arquitetura de extração de informação de mensagens SMS em situações de emergência. A arquitetura contempla quatro componentes: processamento linguístico, processamento temporal, processamento de eventos e fusão da informação. Também se define um processo para criação de corpus de SMSs. A partir da arquitetura proposta, foi realizado um estudo de caso que incluiu a construção do BraCorpSMS, um corpus de mensagens SMS recebidos por uma companhia de energia elétrica e um protótipo em Python utilizando NLTK para validar a arquitetura. O protótipo teve seus componentes de Extração de Informação avaliados, obtendo 88% de Precisão, 59% de Cobertura e 71% de Medida-F. Os resultados indicam oportunidades de avanços, mas, sendo este o primeiro trabalho para o Português voltado para o processamento de mensagens SMS em situações de emergência, também serve de roteiro para trabalhos futuros nesta área.
APA, Harvard, Vancouver, ISO, and other styles
22

Franco, Matheus Eloy. "Cenário de utilização da tecnologia da informação na gestão da produção de café na região do Sul de Minas Gerais." Universidade Jose do Rosario Vellano, 2009. http://tede2.unifenas.br:8080/jspui/handle/jspui/31.

Full text
Abstract:
Made available in DSpace on 2016-05-02T13:54:02Z (GMT). No. of bitstreams: 1 MatheusEloyFranco-dissertacaopdf.pdf: 376071 bytes, checksum: bc5aa8bc1dc732b074095a05765ed90c (MD5) Previous issue date: 2009-09-09
The introduction of new technologies in the rural sector occurs more slowly compared to other sectors of the economy. This work is the result of a study that analyzed the scenario of the introduction of the information technology in cooperatives and coffee-producing properties in the southern region of Minas Gerais to identify factors that delay its adoption. The objects of study were agricultural cooperatives and producers of different sizes. Data were collected from observations, document analysis and interviews with the person in charge of information technology, managers and owners of these properties. After analyzing the cases studied, it was concluded that the agricultural cooperatives have a high technological level and the farms have different levels of technology according to their size.
A introdução de novas tecnologias no setor rural ocorre mais lentamente se comparada a outros setores da economia. Este trabalho é resultado de um estudo que buscou analisar o cenário da introdução da tecnologia da informação em cooperativas e propriedades produtoras de café na região do Sul de Minas Gerais, visando a identificar fatores que retardem sua adoção. Os objetos de estudo foram cooperativas agrárias e produtores de diferentes portes. Como instrumento de coleta de dados utilizaram-se observações, análise documental e entrevistas com o responsável pela área de informática, gerentes e proprietários. Após a análise dos casos estudados, concluiu-se que as cooperativas agrárias possuem nível tecnológico elevado e as propriedades rurais possuem diferentes níveis tecnológicos de acordo com seu porte.
APA, Harvard, Vancouver, ISO, and other styles
23

Monteiro, Tânia Lúcia. "Solução de telefonia IP em uma rede corporativa." Florianópolis, SC, 2003. http://repositorio.ufsc.br/xmlui/handle/123456789/86075.

Full text
Abstract:
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação.
Made available in DSpace on 2012-10-21T03:22:12Z (GMT). No. of bitstreams: 1 193471.pdf: 1204155 bytes, checksum: b1e168e755191c6857f114fdd97febae (MD5)
APA, Harvard, Vancouver, ISO, and other styles
24

Souza, Michael Ferreira de. "Uma nova metodologia para o cálculo da informação acessível." Laboratório Nacional de Computação Científica, 2007. https://tede.lncc.br/handle/tede/60.

Full text
Abstract:
Made available in DSpace on 2015-03-04T18:50:48Z (GMT). No. of bitstreams: 1 THESIS.pdf: 364289 bytes, checksum: f8df107da6c5e647683554fbbc63f7a5 (MD5) Previous issue date: 2007-03-01
Fundação Carlos Chagas Filho de Amparo a Pesquisa do Estado do Rio de Janeiro
The use of quantum systems as part of the communication systems has been source of interesting problems many without solution. In the present work, we show the basic concepts of information theory and quantum mechanics necessary to understand the accessible information problem, whose solution maximizes the Shannon mutual information for a channel defined by an ensemble of quantum states given a priori. In order to estimate more precise bounds for accessible information, we propose the use of Branch and Bound method with interval arithmetic. Numerical experiments and related results are exhibited.
O uso de sistemas quâticos como parte de sistemas de comunicação tem sido fonte de interessantes problemas muitos ainda sem solução. No presente trabalho, apresentamos os conceitos básicos em teoria da informação e mecânica quântica necessários ao entendimento do problema do cálculo da informação acessível, cuja solução maximiza a informação mútua de Shannon para um canal definido por um ensemble de estados quâticos dados a priori. Propomos o uso do método de otimização global Branch and Bound aliado à aritmética intervalar para a estimação de limites mais precisos que os teóricos disponíveis para a informação acessível. Experimentos numéricos e resultados relacionados são apresentados.
APA, Harvard, Vancouver, ISO, and other styles
25

Santos, Luam Leiverton Pereira dos. "Onto-acits: uma ontologia para o processo de gerenciamento da disponibilidade e continuidade de serviços de tecnologia da informação." Universidade Federal de Alagoas, 2016. http://www.repositorio.ufal.br/handle/riufal/1630.

Full text
Abstract:
This work has as its objective the development of a model, based on ontologies, for the knowledge representation of the availability and continuity of IT services management processes seeking to help IT service managers, and constituting a knowledge base for its domain, contributing to the organizational learning in a Federal Institution of Education. The proposed ontology is based on patterns and frameworks, like ITIL and ISO 20.000, that includes good practices recognized by the market, and establishes its own vocabulary, concepts, properties, axioms, restrictions and the flows recommended for its execution. Its development process adopted the Methontology methodology, associated with the Gruninger and Fox proposal, with the formal specification of the axioms in the OWL-DL and SPARQL languages. Its implementation was accomplished through the tool Protegé and the aid of the inference machine Pellet. Its evaluation took into account the ontologic commitment, the coverage and the scope. The instantiation was done with competence questions, the approval of services managers and the use of the FOCA methodology, to verify the heuristics for its adaptation to the requirements of knowledge representation. The final result of this work, the Onto-ACITS ontology, establishes the essential elements considered in the domain description, implementation and operationalization of the maintenance activities related to the availability and continuity IT service management, making this knowledge accessible, intelligible and subject to computational processing.
Este trabalho teve como objetivo desenvolver um modelo, baseado em ontologias, para a representação do conhecimento dos processos de disponibilidade e continuidade de serviços de Tecnologia da Informação, visando auxiliar o Gestor de Serviços de TI e constituir uma base de conhecimento do domínio, contribuindo para a aprendizagem organizacional em uma instituição federal de Ensino Superior. A ontologia proposta baseia-se em padrões e frameworks, tais como a ITIL e a ISO 20.000, que abrangem boas práticas reconhecidas pelo mercado, estabelecendo seu vocabulário, conceitos, propriedades, axiomas, restrições e fluxos recomendados para sua execução. O processo de desenvolvimento adotou a metodologia Methontology, associada à proposta de Gruninger e Fox, com a especificação formal dos axiomas nas linguagens OWL-DL e SPARQL. A implementação foi realizada com a ferramenta Protegé, com o auxílio da máquina de inferência Pellet, e a avaliação levou em consideração o compromisso ontológico, a abrangência e o escopo. A instanciação foi realizada atendendo às questões de competência e homologada por gestores de serviços de TI, utilizando a metodologia FOCA, para a verificação das heurísticas de adequação aos requisitos de representação do conhecimento. A ontologia proposta, denominada Onto-ACITS, estabelece os elementos essenciais a serem considerados na descrição do domínio, na implementação e na operacionalização de atividades de manutenção relacionadas à Gestão de Disponibilidade e Continuidade de Serviços de TI, tornando esse conhecimento acessível inteligível e passível a processamento computacional.
APA, Harvard, Vancouver, ISO, and other styles
26

Andrade, Arthur Morais de. "Descoberta de relacionamentos semânticos não taxonômicos entre termos ontológicos." Universidade Federal de São Carlos, 2017. https://repositorio.ufscar.br/handle/ufscar/8946.

Full text
Abstract:
Submitted by Aelson Maciera (aelsoncm@terra.com.br) on 2017-08-03T19:48:04Z No. of bitstreams: 1 DissAMA.pdf: 3949100 bytes, checksum: a7c504999039d0736a8629285dd87c12 (MD5)
Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-08-08T18:37:14Z (GMT) No. of bitstreams: 1 DissAMA.pdf: 3949100 bytes, checksum: a7c504999039d0736a8629285dd87c12 (MD5)
Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-08-08T18:37:20Z (GMT) No. of bitstreams: 1 DissAMA.pdf: 3949100 bytes, checksum: a7c504999039d0736a8629285dd87c12 (MD5)
Made available in DSpace on 2017-08-08T18:41:15Z (GMT). No. of bitstreams: 1 DissAMA.pdf: 3949100 bytes, checksum: a7c504999039d0736a8629285dd87c12 (MD5) Previous issue date: 2017-02-14
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Ontologies have become an important tool to structure knowledge. However, the construction of an ontology involves a careful process of defining representative terms of the domain and its relationships, which requires a lot of time from ontology engineers and domain experts. These relationships can be taxonomic (hyponymy and meronymy), representing a taxonomy of concepts, and non-taxonomic, referring to the other relationships that occur between the nodes of this taxonomy. The main difficulties of constructing an ontology are related to the time spent by domain specialists and the necessity of guaranteeing the quality and reliability of the ontologies create. In this way, we are welcome the efforts to elaborate approaches that aim to reduce the amount of time dedicated by specialists without reducing the quality of the ontology created. In this master's project, an approach was developed for the discovery of semantic relationships between non-taxonomic ontological terms from semi-structured documents written with informal vocabularies of the Brazilian Portuguese language. Thus, it aids ontology engineers and domain experts in the arduous task of discovering the relationships between ontological terms. After the discovery of semantic relationships, the relationships were converted into a conceptual structure, generated by the Formal Concept Analysis (FCA) method. This approach was validated in two experiments, with the help of domain experts in special education. The first experiment consisted of a comparison between manually extracted relationships and automatic extraction, presenting a good value of precision, coverage and measurement F, respectively, 92%, 95% and 93%. The second experiment evaluated the relationships extracted, automatically, in the structure generated by the FCA, it gets average accuracy 86,5%.These results prove the effectiveness of the semantic relationship discovery approach.
Ontologias têm se tornado um importante instrumento para a estruturação do conhecimento. Porém, a construção de uma ontologia envolve um cuidadoso processo de definição de termos representativos do domínio e seus relacionamentos, exigindo muito tempo dos engenheiros de ontologias em conjunto com especialistas de domínio. Esses relacionamentos podem ser taxonômicos (hiponímia e meronímia), representando uma taxonomia de conceitos, e não taxonômicos, referentes aos demais relacionamentos que ocorrem entre os nós dessa taxonomia. As principais dificuldades estão relacionadas ao tempo gasto pelos especialistas de domínio e às garantias necessárias para a qualidade das ontologias criadas, tornando-as confiáveis. Neste sentido, são bem-vindos os esforços para a elaboração de abordagens que visam diminuir o tempo de dedicação do especialista sem redução de qualidade da ontologia criada. Neste trabalho foi desenvolvida uma abordagem para a descoberta de relações semânticas não taxonômicas entre termos ontológicos, a partir de documentos semiestruturados redigidos com vocábulos informais do Português variante brasileira. A abordagem visa auxiliar engenheiros de ontologias e especialistas de domínio na árdua tarefa de descoberta dos relacionamentos entre termos ontológicos. Após a descoberta dos relacionamentos semânticos, estes foram convertidos em uma estrutura conceitual, gerada pelo método Formal Concept Analysis (FCA). Essa abordagem foi avaliada em dois experimentos, com auxílio de especialistas de domínio em Educação Especial. O primeiro experimento consistiu em uma comparação entre os relacionamentos extraídos de forma manual e a extração automática, apresentando um bom valor de precisão, cobertura e medida F, obtendo, respectivamente, 92%, 95% e 93%. Já o segundo experimento consistiu em avaliar os relacionamentos extraídos automaticamente na estrutura gerada pelo FCA, obtendo precisão média 86,5%. Esses resultados indicam a eficácia da abordagem de descoberta de relacionamentos semânticos.
APA, Harvard, Vancouver, ISO, and other styles
27

Couto, J?lia Mara Colleoni. "T?cnicas de visualiza??o de dados em gerenciamento de projetos de desenvolvimento de software : proposta de extens?o do PMBOK." Pontif?cia Universidade Cat?lica do Rio Grande do Sul, 2018. http://tede2.pucrs.br/tede2/handle/tede/8115.

Full text
Abstract:
Submitted by PPG Ci?ncia da Computa??o (ppgcc@pucrs.br) on 2018-05-30T17:58:54Z No. of bitstreams: 1 JULIA_MARA _COLLEONI_COUTO_DIS.pdf: 14083152 bytes, checksum: 6cf58ce4aafa66a5dee5876f3807b23f (MD5)
Approved for entry into archive by Sheila Dias (sheila.dias@pucrs.br) on 2018-06-11T11:15:59Z (GMT) No. of bitstreams: 1 JULIA_MARA _COLLEONI_COUTO_DIS.pdf: 14083152 bytes, checksum: 6cf58ce4aafa66a5dee5876f3807b23f (MD5)
Made available in DSpace on 2018-06-11T11:24:23Z (GMT). No. of bitstreams: 1 JULIA_MARA _COLLEONI_COUTO_DIS.pdf: 14083152 bytes, checksum: 6cf58ce4aafa66a5dee5876f3807b23f (MD5) Previous issue date: 2018-03-27
Although human brain stores image more easily than text, most of the tools we use when it comes to project management are based on textual reports, such as Microsoft Office files. The number of projects that fail is still large due to several reasons, among which is the lack of understanding of the project by the stakeholders. When it comes to software development, the uncertainties, ambiguities, and complexities inherent in these projects can amplify the chances of failures. Data visualization tools and techniques can help clarify understanding of the context and project details for stakeholders, reducing the risk of project failure and facilitating communication processes. The objective of this work is to identify what is used of visual management applied to project management, in general, and by projects of various types, and verify, among the results, what can be applied in software development project management, and how it can be done. The method designed for the study is composed of 4 phases: foundation, evaluation, compilation, and proposal. Throughout the research, a systematic literature mapping was developed, followed by a survey and a focus group, resulting in the main contribution of this work: the PMBoK (PMI project management practice guide) extension proposal, containing a process, data visualization tools and techniques that can be used as support by the manager and stakeholders in a software development project.
Apesar de o c?rebro humano armazenar imagens com maior facilidade do que texto, grande parte das ferramentas utilizadas quando se trata de gest?o de projetos ? baseada em relat?rios textuais, como arquivos do pacote Microsoft Office. Atualmente, ainda ? grande a quantidade de projetos que falham, devido a motivos diversos, dentre os quais est? o n?o entendimento do projeto por parte das partes envolvidas. Quando se trata de desenvolvimento de software, as incertezas, ambiguidades e complexidades inerentes a estes projetos podem amplificar as chances de falhas. As ferramentas e t?cnicas de visualiza??o de dados podem ajudar a esclarecer o entendimento do contexto e de detalhes do projeto para todas as partes envolvidas, reduzindo o risco de insucesso no projeto e facilitando os processos de comunica??o. O objetivo deste trabalho ? identificar o que ? utilizado de gest?o visual aplicada ao gerenciamento de projetos, de maneira geral e por projetos de diversos tipos, e verificar, dentre os resultados, o que pode ser aplicado no gerenciamento de projetos de desenvolvimento de software, e de que maneira isso pode ser feito. A metodologia desenhada para o estudo ? composta por 4 fases: fundamenta??o, compila??o, avalia??o e proposta. Ao longo da pesquisa foram desenvolvidos um mapeamento sistem?tico da literatura, seguido por uma survey e um focus group, resultando na principal contribui??o deste trabalho: a proposta de extens?o do PMBoK (o guia de pr?ticas de gerenciamento de projetos do PMI), contendo um processo, t?cnicas e ferramentas de visualiza??o de dados que podem ser utilizadas como apoio pelo gerente e demais partes envolvidas em um projeto de desenvolvimento de software.
APA, Harvard, Vancouver, ISO, and other styles
28

Pires, Julio Cesar Batista. "Extração e mineração de informação independente de domínios da web na língua portuguesa." Universidade Federal de Goiás, 2015. http://repositorio.bc.ufg.br/tede/handle/tede/4723.

Full text
Abstract:
Submitted by Cássia Santos (cassia.bcufg@gmail.com) on 2015-10-21T14:08:06Z No. of bitstreams: 2 Dissertação - Julio Cesar Batista Pires - 2015.pdf: 2026124 bytes, checksum: dda6bea6dfa125f21d2023f288178ebc (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2015-10-22T13:08:50Z (GMT) No. of bitstreams: 2 Dissertação - Julio Cesar Batista Pires - 2015.pdf: 2026124 bytes, checksum: dda6bea6dfa125f21d2023f288178ebc (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Made available in DSpace on 2015-10-22T13:08:50Z (GMT). No. of bitstreams: 2 Dissertação - Julio Cesar Batista Pires - 2015.pdf: 2026124 bytes, checksum: dda6bea6dfa125f21d2023f288178ebc (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2015-05-08
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES
Many people are constantly connected on the Web. They are looking for all kinds of things. The Web is a huge source of information. So, they can find almost everything they want. However, Web information is disorganized and have no formal structure. This hampers machine processing and consequently makes information access more difficult. Bringing structure to the Web can be one of the key points for facilitating user searching and navigation. A recent technique, Open Information Extraction, has been successfully applied to extract structured information from the Web. This technique has been mostly applied in pages written in English. This work is specifically focused on information extraction for Portuguese. Techniques used here can be also used to other languages too.
Muitas pessoas estão constantemente conectadas na Web. Elas estão procurando por todo tipo de coisa. A Web é uma enorme fonte de informação. Assim, as pessoas podem encontrar praticamente tudo que elas precisam. Entretanto, as informações da Web são desorganizadas e não possuem uma estrutura formal. Isso dificulta o processamento das máquinas e consequentemente torna o acesso à informaçã mais difícil. Trazer estrutura para a Web pode ser um dos pontos chave para facilitar a busca e navegaçã dos usuários. Uma técnica recente, Extração de Informação Aberta, foi aplicada com sucesso para extrair informação da Web. Essa técnica foi aplicada principalmente em páginas em Inglês. Este trabalho é focado especificamente na extração de informação em Português. As técnicas usadas aqui também podem ser utilizadas para outras linguagens.
APA, Harvard, Vancouver, ISO, and other styles
29

Neuwald, Felipe Barp. "T?cnica para obten??o de redes de aut?matos estoc?sticos baseada em especifica??es de software em UML." Pontif?cia Universidade Cat?lica do Rio Grande do Sul, 2005. http://tede2.pucrs.br/tede2/handle/tede/5029.

Full text
Abstract:
Made available in DSpace on 2015-04-14T14:49:02Z (GMT). No. of bitstreams: 1 406275.pdf: 5088741 bytes, checksum: 77356f5ee18c1f01b23fcf0d1843be33 (MD5) Previous issue date: 2005-03-28
A avalia??o de desempenho de um software orientado a objetos, hoje, pode ser feita basicamente de tr?s maneiras: com testes de desempenho, simula??es ou utilizando m?todos anal?ticos como redes de Aut?matos estoc?sticos e redes de filas de espera. Os testes de desempenho s?o eficientes e, porem podem ser aplicados apenas nas fases finais do desenvolvimento de software, quando o produto esta praticamente pronto, as simula??es podem ser realizadas nas etapas iniciais do processo de desenvolvimento de software por?m, geralmente, s?o custosas, pois dependem da cria??o de um simulador. Os m?todos anal?ticos podem ser aplicados nas fases iniciais do desenvolvimento, mas exigem a cria??o de um modelo de avalia??o de desempenho. No desenvolvimento de software orientados a objetos j? se constr?i um modelo, o qual possui informa??es detalhadas sobre o sistema. Estas informa??es podem ser utilizadas para gerar um modelo de avalia??o de desempenho que represente o software j? que muitas das informa??es contidas no modelo do software s?o comuns ao modelo de avalia??o de desempenho. Utilizando esta id?ia foram criados alguns m?todos de convers?o de UML para formalismos de avalia??o de desempenho como redes de filas de espera. Porem, ainda inexiste m?todos ou t?cnicas que convertem UML para formalismos como SAN, que ? mais abrangente que, por exemplo, redes de espera. Este trabalho demonstra uma t?cnica de convers?o de UML para SAN, onde explora-se a representa??o da arquitetura l?gica de software orientados a objetos
APA, Harvard, Vancouver, ISO, and other styles
30

Pinheiro, Josiane Melchiori. "A influência das folksonomias na eficiência da fase inicial de modelagem conceitual." Universidade Tecnológica Federal do Paraná, 2016. http://repositorio.utfpr.edu.br/jspui/handle/1/2831.

Full text
Abstract:
Fundação Araucária
Este estudo examina a hipótese que usar folksonomias induzidas dos sistemas de tagging colaborativo em modelagem conceitual deve reduzir o número de divergências entre os atores envolvidos no processo quando eles elicitam termos para serem usados no modelo, usando-se como baseline os termos extraídos de páginas Web baseados na frequência de termos. Usa como medida de eficiência o número de divergências, pois quanto menor o número de divergências, menor o tempo e o esforço necessários para criar o modelo conceitual. Descreve os experimentos controlados de modelagem conceitual que foram realizados com grupos experimentais que receberam a folksonomia e com grupos de controle que receberam termos extraídos de páginas Web. Os resultados descritos mostram que grupos experimentais e de controle obtiveram números similares de divergências. Outras medidas de eficiências, assim como o reuso dos termos nos artefatos da modelagem e a facilidade percebida ao realizar a tarefa de modelagem confirmaram os resultados obtidos pelo número de divergências, com uma eficiência ligeiramente maior entre os grupos experimentais.
This study examines the hypothesis that using folksonomies induced from collaborative tagging systems in conceptual modeling should reduce the number of divergences between actors when they elicit terms to be used in a model, using as baseline terms extracted from webpages based on term frequency. It uses as efficiency measure the number of divergences, because the fewer the divergences, the less time and effort required to create a conceptual model. It describes the controlled conceptual modeling experiments that were performed using experimental groups that received a folksonomy and control groups that received terms extracted from webpages. The results show that the experimental and control groups obtained similar numbers of divergences. Other efficiency measures, such as reuse of terms in the phases of conceptual modeling and perceived ease of performing the modeling task, confirmed the results obtained by the number of divergences, with slightly greater efficiency among the experimental groups.
APA, Harvard, Vancouver, ISO, and other styles
31

Brito, Filipe Marinho de. "Faraday: um sistema de suporte à manipulação de dados do Setor Elétrico Brasileiro." Universidade Federal de Goiás, 2013. http://repositorio.bc.ufg.br/tede/handle/tede/3061.

Full text
Abstract:
Submitted by Jaqueline Silva (jtas29@gmail.com) on 2014-09-15T17:01:52Z No. of bitstreams: 2 Filipe Marinho de Brito.pdf: 17131597 bytes, checksum: 477190303473bc899a0003fa4fa5d986 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Approved for entry into archive by Jaqueline Silva (jtas29@gmail.com) on 2014-09-15T17:49:43Z (GMT) No. of bitstreams: 2 Filipe Marinho de Brito.pdf: 17131597 bytes, checksum: 477190303473bc899a0003fa4fa5d986 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Made available in DSpace on 2014-09-15T17:49:43Z (GMT). No. of bitstreams: 2 Filipe Marinho de Brito.pdf: 17131597 bytes, checksum: 477190303473bc899a0003fa4fa5d986 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2013-09-03
The operation planning process for hydrothermal generation systems is complex and depends on a large demand of organized data to find rational strategies of operation. These data although vast, often are shown in closed formats, tabular or graphical to satisfy a specific interest. What comes as closest as raw data, that allows the application of mathematical models to find rational strategies of operation are the decks. Although the wide range of papers developed to solve this planning, these are usually applied in a restricted sample of data because there is a great difficulty in reading the decks, for example the lack of standarts in the identification of a plant and the presence of binary files. In order to solve the problem in obtaining and handling data of plants, the Faraday System was developed, which promotes reading, organization, standardization, reporting and editing data of plants from decks and other information bases, as data flows reading from governmental institutions sites. The Faraday system is a web application platform, focusing on mobile computing, and can be accessed by tablets, smartphones or any devices that have access to browser and internet, introducing the science of energy research in mobile computing.
O processo de planejamento de operações de sistemas de geração hidrotérmicos é complexo e depende de uma grande demanda de dados organizados para encontrar estratégias racionais de operação. Estes dados apesar de vastos, costumam ser apresentados em formatos fechados, gráficos ou tabulados de modo a atender a um interesse específico. O que mais se aproxima de dados mais embrutecidos, que possibilitem a aplicação de modelos matemáticos para encontrar estratégias racionais de operação, são os decks. Apesar da ampla gama de trabalhos científicos desenvolvidos no sentido de solucionar o planejamento, estes costumam ser aplicados em uma amostra restrita de dados pois existe uma dificuldade grande na leitura dos decks, dentre eles pode-se citar a falta de padronização na identificação de uma usina e a presença de arquivos binários. Visando solucionar o problema na obtenção e manipulação de dados de usinas, foi desenvolvido o Sistema Faraday, que promove a leitura, organização, padronização, emissão de relatórios e edição de dados de usinas provinientes de decks e outras bases de informação, como dados de leitura de vazão provinientes de sites de instituições governamentais. O Sistema Faraday é uma aplicação web, multiplataforma, com foco na computação móvel, podendo ser acessada por tablets, smartphones ou quaisquer dispositivos que possuam navegador e acesso à internet; introduzindo a ciência da pesquisa energética na computação móvel.
APA, Harvard, Vancouver, ISO, and other styles
32

MOREIRA, JUNIOR Maurício M. "Sistema de informação web para o cadastro de produtores de flores e plantas ornamentais." Universidade José do Rosário Vellano, 2017. http://tede2.unifenas.br:8080/jspui/handle/jspui/192.

Full text
Abstract:
Submitted by Samira Ramos (samira.ramos@unifenas.br) on 2018-04-25T20:20:00Z No. of bitstreams: 1 Maurício Moreira Júnior.pdf: 942812 bytes, checksum: ba7b970eeaeab638aad2f7504b8c6dfc (MD5)
Made available in DSpace on 2018-04-25T20:20:00Z (GMT). No. of bitstreams: 1 Maurício Moreira Júnior.pdf: 942812 bytes, checksum: ba7b970eeaeab638aad2f7504b8c6dfc (MD5) Previous issue date: 2017-09-22
One of the segments of Brazilian agribusiness that has grown the most in recent years was the market for flowers and ornamental plants. With the objective of elaborating a web information system, which maintains a database with information from the producers, allowing the updating of the data of the same when it is necessary, the software has been developed PeqsuisAgro, using web technologies PHP, HTML, CSS, JavaScript and the Laravel framework in conjunction with the MySQL database. Among the various functionalities are the registration and management of searches with multiple-choice questionnaires, which may be included by researchers or administrators of the software. After registering, it is possible to publish, through an internet link, the research among the producers so that they can respond. PesquisAgro proves to be an important tool for research creation and use with questionnaires between producers, since it allows the researcher to update the data of a research more quickly and with a frequency greater to the detriment of a research done in loco.
Um dos segmentos do agronegócio brasileiro que mais cresceu nos últimos anos foi o mercado de flores e de plantas ornamentais. Com o objetivo de elaborar um sistema de informação web, que mantenha um banco de dados com informações dos produtores, possibilitando a atualização dos dados quando for necessário, desenvolveu-se o software PesquisAgro, utilizando-se tecnologias web PHP,HTML,CSS, JavaScript e o framework Laravel em conjunto com o banco de dados MySQL. Dentre as várias funcionalidades, destacam-se o cadastro e o gerenciamento de pesquisas com questionários de perguntas múltipla-escolha, que poderão ser incluídos por pesquisadores ou administradores do software. Após o cadastro, é possível divulgar, por meio de link da internet, a pesquisa entre os produtores para que estes possam responder. O PesquisAgro se mostra uma importante ferramenta para a criação e para a utilização em pesquisa com questionários entre produtores, pois permite ao pesquisador atualizar os dados de uma pesquisa mais rapidamente e com uma frequência maior em detrimento de uma pesquisa realizada in loco.
APA, Harvard, Vancouver, ISO, and other styles
33

Mendes, Guilherme Firmino. "Filtragem de percepções em agentes baseada em objetivos e no modelo de revisão de crenças data-oriented belief revision (DBR)." Universidade Tecnológica Federal do Paraná, 2015. http://repositorio.utfpr.edu.br/jspui/handle/1/1896.

Full text
Abstract:
Em cenários onde agentes inteligentes atuam e percebem dados de ambientes com cada vez mais informações, identificar somente as percepções relevantes aos objetivos pode ser crucial para que o ciclo de raciocínio do programa seja realizado em tempo hábil. Como uma solução a este problema, o presente trabalho criou um modelo de filtragem de percepções baseado no modelo DBR (Data-oriented Belief Revision) para ser aplicado em agentes BDI (Belief Desire Intention). Para isto, o trabalho estendeu e formalizou parte dos conceitos do modelo DBR tornando-o computacionalmente aplicável. Entre as contribuições deste trabalho estão a extensão da definição dos processos de Foco (seleção de dados percebidos) e Esquecimento de dados inativos; a definição e formalização de modelos de cálculo da Relevância de percepções, que permitem filtrar ou descartar dados em função dos planos do agente e de suas valorações de importância; e as definições dos modelos de armazenamento de Dados Inativos capazes de suportar diferentes cenários de utilização de agentes BDI. O resultado foi um filtro de percepções, genérico e automatizado, orientado aos objetivos de agentes BDI. Para operacionalizar o modelo criado, ele foi implementado na plataforma de desenvolvimento de agentes Jason. Análises empíricas foram realizadas para avaliar a corretude e os impactos relacionados ao tempo de pro- cessamento após a aplicação do modelo. Os experimentos realizados indicaram que o modelo de filtragem de percepções proposto neste trabalho contribui no desempenho computacional de agentes expostos a ambientes com muitos ruídos.
In scenarios where intelligent agents act and perceive data of environments with much information, identify only perceptions relevant to goals can be crucial for the agent reasoning cycle to be performed in time. As a solution to this problem, this work creates a model to filter perceptions based on DBR (Data-oriented Belief Revision) model to be applied at BDI (Belief Desire Intention) agents. In order to do it, this work has extended and formalized some of the DBR model concepts making it applicable in computer programs. Among this work contributions are the extension and definition of the processes Focus (selection of perceived data) and Oblivion of inactive data; definition and formalization of perception Relevance models, calculations that allow to filter or discard data based on agent plans and their importance values;definition of Inactive Data storage models able to support different usage scenarios of BDI agents. The result was a generic and automated perception filter oriented to the goals of BDI agents. To opera- tionalize the model, it was implemented in the agent development plataform Jason. Empirical analysis have been done to assess the correctness and identify the impact on the processing time after the model application. The results indicate that the perception filtering model proposed in this work contributes to the computational performance of agents exposed to environments with much noise.
APA, Harvard, Vancouver, ISO, and other styles
34

Angelo, F?bio Nunes. "Granularidade da informa??o em sistemas hiperm?dia adapt?veis." Pontif?cia Universidade Cat?lica de Campinas, 2007. http://tede.bibliotecadigital.puc-campinas.edu.br:8080/jspui/handle/tede/1127.

Full text
Abstract:
Submitted by SBI Biblioteca Digital (sbi.bibliotecadigital@puc-campinas.edu.br) on 2018-08-15T11:11:40Z No. of bitstreams: 1 Fabio Nunes Angelo.pdf: 3745845 bytes, checksum: c448700fa075a4f93f9dc10fb0233246 (MD5)
Made available in DSpace on 2018-08-15T11:11:40Z (GMT). No. of bitstreams: 1 Fabio Nunes Angelo.pdf: 3745845 bytes, checksum: c448700fa075a4f93f9dc10fb0233246 (MD5) Previous issue date: 2007-05-31
Centro de Pesquisa e Desenvolvimento em Telecomunica??es (CPqD)
The subject of this thesis is an analysis on the effect of information granularity in adaptive hypermedia systems upon the response time in the interaction with the user. First the concept of adaptive hypermedia is brought into consideration, followed by the concept of information granularity itself. These concepts are then related to adaptive hypermedia system in order to measure the possible performance problems that can rise when information granularity is modified. Next, a methodology for performance assessment of computer systems is presented. This methodology is adapted and used to study the impact of refining information granularity upon the performance of an adaptive hypermedia system. Information is presented on the mean response time data that was collected and modeled in the form of mathematical equations, where the amount of adaptive application objects are related to average response time. An specific estimation tool was developed using these equations. The issue on performance versus optimal size for information granularity in adaptive hypermedia systems is discussed and.the conclusion suggests new directions for future work.
O assunto desta disserta??o ? uma an?lise sobre o impacto da varia??o da granularidade da informa??o em sistemas hiperm?dia adapt?veis em cima do tempo de resposta na intera??o com o usu?rio. Discute-se primeiramente o conceito de hiperm?dia adapt?vel, seguido pelo conceito de granularidade da informa??o. Estes conceitos s?o, ent?o, relacionados ao problema de desempenho de uma aplica??o hiperm?dia adapt?vel, quando ocorre mudan?a na granularidade da informa??o. Em seguida, apresenta-se uma metodologia para avalia??o de desempenho de sistemas computacionais. Atrav?s de algumas adapta??es, a mesma ? aplicada para estudar o impacto do refinamento da granularidade da informa??o no desempenho de um determinado sistema hiperm?dia adapt?vel. Apresentam-se os dados sobre tempo m?dio de resposta e modelam-se os mesmos em equa??es, nas quais relaciona-se a quantidade de objetos da aplica??o adapt?vel com o tempo m?dio de resposta. Uma ferramenta de estimativa desenvolvida a partir dessas equa??es ? apresentada. Discute-se at? que ponto a informa??o deve ser refinada nos sistemas hiperm?dia adapt?veis sem que seu desempenho seja afetado e conclui-se sugerindo uma linha de trabalhos futuros.
APA, Harvard, Vancouver, ISO, and other styles
35

Ribeiro, Leonardo Andrade. "Um portal de banco de imagens médicas distrubuído usando corba para integração de serviços de teleradiologia." Florianópolis, SC, 2002. http://repositorio.ufsc.br/xmlui/handle/123456789/83950.

Full text
Abstract:
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação.
Made available in DSpace on 2012-10-20T04:54:46Z (GMT). No. of bitstreams: 1 208066.pdf: 638412 bytes, checksum: c762b70508aada6ed9a0a59748b8d2c9 (MD5)
A área do diagnóstico por imagem é um dos campos da medicina mais propensos a uso da Telemedicina, porque normalmente não existe a obrigação do contato direto com o paciente pelo radiologista responsável durante a elaboração do diagnóstico. A carência de especialistas em locais distantes de grandes centros urbanos faz da Telemedicina uma importante ferramenta para melhorar os serviços de atenção à saúde. Neste trabalho é apresentado um modelo baseado em uma abordagem federada chamo Portal de Teleradiologia, para a integração de bancos de imagens médicas DICOM distribuído geograficamente. O objetivo é prover uma visão única e transparente dos dados compartilhados sem sacrificar a autonomia dos sistemas integrantes ou interferir com operações locais. Um requisito obrigatório para sistemas desta natureza é a garantia de um contexto seguro para a execução das operações. O modelo proposto prevê também a identificação única de pacientes entre as diversas bases de dados através de técnicas de relacionamento de registros. Para a implementação do protótipo do sistema foi utilizada a tecnologia de objetos distribuídos através da arquitetura CORBA.
APA, Harvard, Vancouver, ISO, and other styles
36

Martins, Bianca. "tV DIGITAL e visualização de informações." Universidade Catolica de Pelotas, 2011. http://tede.ucpel.edu.br:8080/jspui/handle/tede/224.

Full text
Abstract:
Made available in DSpace on 2016-03-22T17:26:45Z (GMT). No. of bitstreams: 1 Bianca_ ultima versao.pdf: 2310630 bytes, checksum: 2a5e16bab352789a9cfbaef41a6e91dd (MD5) Previous issue date: 2011-03-11
The Information Visualization study area tries to represent through graphic visual representation, transmit information that allow a better understanding of a large amount of raw data. The use of Information Visualization Tools for Digital Television make to television viewers understand the values in a more intuitive way, query, and learn more about the analyzed systems. The purpose of this research is to make TV applications easier to learn, comprehend, understand, and manipulate the high amount of information that will be shown on the television screen through the terrestrial Brazilian Digital TV Standard. Inside this context there will be used, as start point, two classes of evaluation criterias defined by Luzzardi [LUZZARDI, 2003], as a way to facilitate the discovery of the main Usability issues encountered by the viewers. This research finishes with tests, conclusions, and future works
A Visualização de Informações é uma área que procura através de representações gráficas visuais, transmitir informações que permitam a melhor compreensão de um grande volume de dados em estado bruto. A utilização de ferramentas de visualização de informações voltadas para TV Digital poderá tornar possível aos telespectadores, compreender de forma intuitiva, consultar e aprender sobre os sistemas apresentados. O trabalho a ser apresentado tem como principal finalidade, tornar mais fácil ao usuário aprender, compreender, interpretar e manipular o grande volume de informações que serão exibidos em aplicativos televisivos através da TV Digital Terrestre. Dentro deste contexto, serão utilizados como base e ponto de partida, dois conjuntos de critérios de avaliação (heurísticas) definidos por Luzzardi [LUZZARDI, 2003], de modo a facilitar a descoberta dos principais problemas de usabilidade enfrentados pelos telespectadores da TV Digital. O trabalho é concluído com a realização de testes, apresentando conclusões e indicações de trabalhos futuros
APA, Harvard, Vancouver, ISO, and other styles
37

Araujo, Carina Calixto Ribeiro de. "Seleção e geração de características utilizando regras de associação para o problema de ordenação de resultados de máquinas de buscas." Universidade Federal de Goiás, 2014. http://repositorio.bc.ufg.br/tede/handle/tede/4404.

Full text
Abstract:
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2015-03-31T12:22:43Z No. of bitstreams: 2 Dissertação - Carina Calixto Ribeiro de Araujo - 2014.pdf: 962707 bytes, checksum: 35c8b1aaf03b3f0aeefb923de0f8dfcc (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2015-04-01T10:56:06Z (GMT) No. of bitstreams: 2 Dissertação - Carina Calixto Ribeiro de Araujo - 2014.pdf: 962707 bytes, checksum: 35c8b1aaf03b3f0aeefb923de0f8dfcc (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Made available in DSpace on 2015-04-01T10:56:06Z (GMT). No. of bitstreams: 2 Dissertação - Carina Calixto Ribeiro de Araujo - 2014.pdf: 962707 bytes, checksum: 35c8b1aaf03b3f0aeefb923de0f8dfcc (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2014-08-29
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES
Information Retrieval is an area of IT that deals with document storage and the information retrieval in these documents. With the advent of the Internet, the number of documents produced has increased as well as the need to retrieve the information more accurately. Many approaches have been proposed to meet these requirements and one of them is Learning to rank (L2R). Despite major advances achieved in the accuracy of retrived documents, there is still considerable room for improvement. This master thesis proposes the use of feature selection and generation using association rules to improve the accuracy of the L2R methods.
Recuperação de Informação é a área da informática que lida com o armazenamento de documentos e a recuperação de informação desses documentos. Com o advento da internet a quantidade de documentos produzidos aumentou, bem como a necessidade de recuperar a informação de forma mais mais precisa. Muitas abordagens surgiram para suprir essa requisição e uma delas é a abordagem Learning to Rank (L2R). Apesar de obtidos grandes avanços na precisão dos documentos retornados, ainda há espaço para melhorias. Esse trabalho de mestrado propõe a utilização de seleção e geração de características utilizando regras de associação para conseguir uma melhoria na acurácia dos métodos de L2R.
APA, Harvard, Vancouver, ISO, and other styles
38

Lucena, David Jones Ferreira de. "Atualização local automática de pesos para recuperação de nódulos similares de câncer pulmonar." Universidade Federal de Alagoas, 2016. http://www.repositorio.ufal.br/handle/riufal/1716.

Full text
Abstract:
Lung cancer has become the most lethal malignancy in the world in recent decades. And despite advances in medicine, there has been little progress regarding the cure of the disease. According to the National Cancer Institute in the last global estimate of the incidence of lung cancer in 2012, there were 1.82 million cases of cancer, with 1.24 million among men and 583 thusand among women. The main cause of lung cancer is smoking that is responsible for 90 % of diagnosed cases. The diagnosis of lung cancer is done mainly based on CT images, and today it is considered the main visualization technique for detecting pulmonary nodules. However, the process of identifying and classi cation of nodules are complex and involves subjective and qualitative factors that lead experts to error. This scenario requires the use of computational techniques to e ectively manipulate the data and provide the means for more accurate diagnoses. Computer systems have been developed in order to search and retrieve imaging exams already diagnosed which are similar to a new case with unknown pathology according to the similarity between their characteristics. This property is intrinsic to Content-Based Image Retrieval (CBIR). Diagnosed exams retrieved can be used as a second opinion to guide those specialists in the diagnosis, providing more information. However, CBIR presents some limitations regarding to the process of segmentation and representation of image characteristics through of attributes, as well as determine an appropriate similarity metric. This paper presents a local update weighing algorithm applied to the Weighted Euclidean Distance (WED) in a CBIR architecture in order to verify if the WED with adjusted weights is more accurate than the Euclidean Distance in image retrieval of pulmonary nodules. For this, the 3D Texture Attributes (3D AT) and 3D Margin Sharpness Attributes (3D MSA) were used to represent nodules. Presente process consists of two phases that are performed sequentially and cyclically being an Assessment Phase and Training Phase. At each iteration the weights are adjusted according to the retrieved nodules. At the end of cycles execution, it is obtained a set of attribute weights that optimize the recovery of similar nodes. The results achieved by updating the weights were promising and increase precision by 10% to 6% on mean for recovery of benign and malignant nodules respectively with recall 25%. In the best case, the 3D MSA provided 100% of precision for the two classes with recall 90%. This proves the e ectiveness of the algorithm achieving the goals to this work and con rms the hypothesis that the DEP, with adjusted weights, provides greater precision than DE as a similarity metric in CBIR systems.
Fundação de Amparo a Pesquisa do Estado de Alagoas
O câncer de pulmão se tornou a neoplasia maligna mais letal do mundo nas últimas décadas. E, apesar dos avanços na medicina, houve pouco progresso com relação à cura da doença. Segundo o INCA, na última estimativa mundial sobre a incidência de câncer pulmonar, em 2012, foram registrados 1,82 milhão de casos de câncer, sendo 1,24 milhão entre os homens e 583 mil entre as mulheres. O principal causador do câncer pulmonar é o tabagismo sendo responsável por 90% dos casos diagnosticados. O diagnóstico do câncer pulmonar é feito, principalmente, com base em imagens de TC e, hoje, é considerada a principal técnica de visualização para detecção de nódulos pulmonares. Entretanto, o processo de identi cação e classi cação de nódulos é complexo e envolve fatores subjetivos e qualitativos que acabam induzindo os especialistas ao erro. Este panorama exige o emprego de técnicas computacionais que permitam efetivamente manipular os dados e proporcionar meios para diagnósticos mais precisos. Sistemas computacionais têm sido desenvolvidos com o objetivo de buscar e recuperar imagens de exames já diagnosticados, que são similares a um novo caso com patologia ainda desconhecida segundo a similaridade entre as suas características. Essa propriedade é intrínseca aos sistemas CBIR. Os exames diagnosticados recuperados podem ser utilizados como uma segunda opinião para guiar os especialistas no momento do diagnóstico, fornecendo informações adicionais. Contudo, CBIR apresenta algumas limitações referentes ao processo de extração e representação de características das imagens, por meio de atributos, e a determinação de uma métrica de similaridade adequada. Este trabalho apresenta um algoritmo de ajuste local de pesos aplicado à DEP em uma arquitetura CBIR com o objetivo de veri car se a DEP com os pesos ajustados é mais precisa do que a DE na recuperação de imagens contendo nódulos de câncer pulmonar. Para isso, foram utilizados os AT 3D e os ANB 3D para representar os nódulos. O processo apresentado é composto por duas fases que são executadas de forma sequencial e cíclica sendo uma Fase de Avaliação e uma de Fase de Treinamento. A cada iteração os pesos são ajustados segundo os nódulos recuperados. Ao término do ciclo de execuções das fases, obtém-se um conjunto de pesos de atributos que otimizam a recuperação de nódulos semelhantes. Os resultados alcançados pela atualização dos pesos foram promissores aumentando a precisão em 10% e 6% em média para recuperação de nódulos benignos e malignos, respectivamente, com revocação de 25%. No melhor caso, o ANB 3D proporcionou 100% para recuperação das duas classes com revocação de 90%. Isso comprova a e cácia do algoritmo alcançando os objetivos almejados para o trabalho e con rmando a hipótese de que a DEP com os pesos ajustados proporciona maior precisão do que DE como métrica de similaridade em sistemas CBIR.
APA, Harvard, Vancouver, ISO, and other styles
39

Lopes, Júnior Márcio. "Sistema de Gestão Avícola - SYSAVES." Universidade Jose do Rosario Vellano, 2010. http://tede2.unifenas.br:8080/jspui/handle/jspui/39.

Full text
Abstract:
Made available in DSpace on 2016-05-02T13:54:05Z (GMT). No. of bitstreams: 1 MarcioLopesJunior-dissertacao.pdf: 1314916 bytes, checksum: ada271742df5939bdae68fa94b28d497 (MD5) Previous issue date: 2010-12-14
This research presents an execution software for small, medium-sized and large poultry companies. It is the development of a system to monitor poultry flocks. Besides literature research, the methodology included three steps, in 6 months: system analysis, characterized by on-site visits, data collection, document preparation regarding the system requirements and their approval; system implementation using Java language, along with the MySQL database management system, for reasons of quality and compatibility; tests, carried out by the developer. The system was shown to be totally viable for its purpose, once technology used in the poultry business facilitates the management of all stages of the production system, creating administrative and financial reports of every item involved. The application of SYSAVES showed that information now has a new perspective, what provides the company with a new advantage in the market.
Esta pesquisa apresenta um software de execução direcionado a empresas do setor avícola, de pequeno, médio ou grande porte. Trata-se do desenvolvimento de um sistema para controlar lotes de aves. Além da pesquisa bibliográfica, a metodologia abrangeu três etapas, em 6 meses: análise de sistema, caracterizada por visitas in loco, colheita de dados, confecção da documentação referente aos requisitos do sistema e aprovação dos mesmos; implementação do sistema, sendo utilizada a linguagem Java, juntamente com o sistema gerenciador de banco de dados MySQL, por razões de qualidade e compatibilidade; testes, realizados pelo desenvolvedor. O sistema se mostrou totalmente viável ao objetivo proposto, visto que o uso de tecnologia aplicada no setor avícola facilita a gestão de todas as etapas do sistema de produção, gerando relatórios administrativos e financeiros de cada item envolvido. A aplicação do SYSAVES, mostrou que a informação passa a ter uma nova perspectiva, o que faz com que a empresa passe a ter um diferencial no mercado.
APA, Harvard, Vancouver, ISO, and other styles
40

Alvarenga, Leonel Diógenes Carvalhaes. "Uso de Seleção de Características da Wikipedia na Classificação Automática de Textos." Universidade Federal de Goiás, 2012. http://repositorio.bc.ufg.br/tede/handle/tde/2870.

Full text
Abstract:
Submitted by Cássia Santos (cassia.bcufg@gmail.com) on 2014-07-31T14:43:10Z No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) uso_de_selecao_de_caracteristicas_da_wikipedia_na_classificacao_automatica_de_textos.pdf: 1449954 bytes, checksum: 9086dec3868b6b703340b550c614d33d (MD5)
Made available in DSpace on 2014-07-31T14:43:10Z (GMT). No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) uso_de_selecao_de_caracteristicas_da_wikipedia_na_classificacao_automatica_de_textos.pdf: 1449954 bytes, checksum: 9086dec3868b6b703340b550c614d33d (MD5) Previous issue date: 2012-09-20
Fundação de Amparo à Pesquisa do Estado de Goiás - FAPEG
The traditional methods of text classification typically represent documents only as a set of words, also known as "Bag of Words"(BOW). Several studies have shown good results on making use of thesauri and encyclopedias as external information sources, aiming to expand the BOW representation by the identification of synonymy and hyponymy relationships between present terms in a document collection. However, the expansion process may introduce terms that lead to an erroneous classification. In this paper, we propose the use of feature selection measures in order to select features extracted from Wikipedia in order to improve the efectiveness of the expansion process. The study also proposes a feature selection measure called Tendency Factor to One Category (TF1C), so that the experiments showed that this measure proves to be competitive with the other measures Information Gain, Gain Ratio and Chisquared, in the process, delivering the best gains in microF1 and macroF1, in most experiments. The full use of features selected in this process showed to be more stable in assisting the classification, while it showed lower performance on restricting its insertion only to documents of the classes in which these features are well punctuated by the selection measures. When applied in the Reuters-21578, Ohsumed first - 20000 and 20Newsgroups collections, our approach to feature selection allowed the reduction of noise insertion inherent in the expansion process, and improved the results of use hyponyms, and demonstrated that the synonym relationship from Wikipedia can also be used in the document expansion, increasing the efectiveness of the automatic text classification.
Os métodos tradicionais de classificação de textos normalmente representam documentos apenas como um conjunto de palavras, também conhecido como BOW (do inglês, Bag of Words). Vários estudos têm mostrado bons resultados ao utilizar-se de tesauros e enciclopédias como fontes externas de informações, objetivando expandir a representação BOW a partir da identificação de relacionamentos de sinonômia e hiponômia entre os termos presentes em uma coleção de documentos. Todavia, o processo de expansão pode introduzir termos que conduzam a uma classificação errônea do documento. No presente trabalho, propõe-se a aplicação de medidas de avaliação de termos para a seleção de características extraídas da Wikipédia, com o objetivo de melhorar a eficácia de sua utilização durante o processo de expansão de documentos. O estudo também propõe uma medida de seleção de características denominada Fator de Tendência a uma Categoria (FT1C), de modo que os experimentos realizados demonstraram que esta medida apresenta desempenho competitivo com as medidas Information Gain, Gain Ratio e Chi-squared, neste processo, apresentando os melhores ganhos de microF1 e macroF1, na maioria dos experimentos realizados. O uso integral das características selecionadas neste processo, demonstrou auxiliar a classificação de forma mais estável, ao passo que apresentou menor desempenho ao se restringir sua inserção somente aos documentos das classes em que estas características são bem pontuadas pelas medidas de seleção. Ao ser aplicada nas coleções Reuters-21578, Ohsumed rst-20000 e 20Newsgroups, a abordagem com seleção de características permitiu a redução da inserção de ruídos inerentes do processo de expansão e potencializou o uso de hipônimos, assim como demonstrou que as relações de sinonômia da Wikipédia também podem ser utilizadas na expansão de documentos, elevando a eficácia da classificação automática de textos.
APA, Harvard, Vancouver, ISO, and other styles
41

ALMEIDA, Alexandre Cláudio de. "Um Componente para Geração e Evolução de Esquemas de Bancos de Dados como Suporte à Construção de Sistemas de Informação." Universidade Federal de Goiás, 2010. http://repositorio.bc.ufg.br/tede/handle/tde/505.

Full text
Abstract:
Made available in DSpace on 2014-07-29T14:57:47Z (GMT). No. of bitstreams: 1 Dissertacao Valdomeria N de M Morgado 2010.pdf: 793904 bytes, checksum: 6ebfc3ed36711bf080787eaa46eea743 (MD5) Previous issue date: 2010-11-22
An Information System (IS) has three main aspects: a database that contains data which is processed to generate business information; an application functions which transforms data in information; and business rules which control and restrict data manipulated by the functions. An IS evolves continuously to follow the corporation changes, and the database should be change to attend the new requirements. This dissertation presents a model driven approach to generate and evolve IS databases. A software component, called Especialista em Banco de Dados (EBD), was developed. There are two mapping sets for database generation: from Modelo de Meta Objeto (MMO) (used to representing IS) to Relational Model (RM), and from this to DBMS PostgreSQL SQL dialect. The component EBD is a part of a framework for modeling, building and maintaining enterprise information systems software. This component provides services to other framework components. To validate the proposed approach, Software Engineers had developed IS using the component EBD. The Dissertation main contributions are an approach to support IS database life cycle, a software architecture to generate and evolve IS database schema, an IS data representation model (MMO), a mapping specification to generate schema and stored procedures and the definition of automated operation sets to evolve IS database schema.
Um Sistema de Informação (SI) Corporativo tem três aspectos principais: o banco de dados, que contém dados que são processados para gerar informações do negócio; as funções de aplicação, que transformam dados em informações; e as regras de negócio, que controlam e restringem a manipulação dos dados pelas funções. Um SI precisa evoluir continuamente para acompanhar as mudanças na corporação e, consequentemente, o banco de dados deve ser modificado para atender aos novos requisitos de negócio. Esta dissertação apresenta uma abordagem dirigida por modelos para a automatização do processo de transformação na geração e evolução de bancos de dados de Sistema de Informação. Para isso foi criado um componente de software denominado Especialista em Banco de Dados (EBD). Dois conjuntos de mapeamentos são apresentados para a geração de esquemas, um do modelo conceitual chamado Modelo de Meta Objeto (MMO), utilizado para representação de SI, para o Modelo Relacional; e deste para o dialeto SQL do SGBD PostgreSQL. O componente EBD faz parte de um framework que gera, evolui e gerencia Sistemas de Informação. Este componente fornece também serviços para outros componentes deste framework. Uma experimentação foi feita com engenheiros de software com experiência em desenvolvimento de Sistema de Informação para validar a abordagem proposta. As principais contribuições desta dissertação são: abordagem que apoia ciclo de vida de BD de SI, arquitetura de software que permite a geração e evolução de esquema de SI, especificação de um modelo de representação de dados de SI (MMO), especificação de mapeamentos para geração de esquema e procedimentos de manipulação e definição de um conjunto de operações que automatizam o processo de evolução de esquema de BD de SI.
APA, Harvard, Vancouver, ISO, and other styles
42

Amorim, Marta Talitha Carvalho Freire de. "Um sistema inteligente baseado em ontologia para apoio ao esclarecimento de dúvida." Universidade Federal do Espírito Santo, 2012. http://repositorio.ufes.br/handle/10/6421.

Full text
Abstract:
Made available in DSpace on 2016-12-23T14:33:48Z (GMT). No. of bitstreams: 1 Marta Talitha Carvalho Freire De Amorim.pdf: 1718108 bytes, checksum: 60eb34219545d0ffacecb5e5e80f2ea7 (MD5) Previous issue date: 2012-08-31
When people want to learn a concept, the most common way is to use a search engine like: Google, Yahoo, Bing, among others. A natural language query is submitted to a search tool and which returns a lot of pages related to the concept studied. Usually the returned pages are listed and organized mainly based on the combination of keywords instead of using the interpretation and relevance of the terms found. The user must have read a lot of pages and selects the most appropriate to his needs. This kind of behavior takes time and focus on user-learner is dispersed to his goal. The use of intelligent systems that support the clarification of doubt has intent to solve this problem, presenting the most accurate answers to questions or sentences in natural language. Examples clarification of doubt systems are: question-answer system, help-desk intelligent among others. This work uses an architectural approach to a question answering system based on three steps: question analysis, selection and extraction of the answer and answer generation. One of the merits of this architecture is to use techniques that complement each other, such as ontologies, information retrieval techniques and a knowledge base written in AIML language to extract the answer quickly. The focus of this work is to answer questions WH-question (What, Who, When, Where, What, Who) of the English language
Quando as pessoas querem aprender algum conceito, a forma mais comum é usar uma ferramenta de pesquisa, como: Google, Yahoo, Bing, dentre outros. Uma consulta em linguagem natural é submetida para uma ferramenta e a pesquisa retorna uma grande quantidade de páginas relacionadas ao conceito pesquisado. Geralmente as páginas retornadas são listadas e organizadas principalmente baseando-se na combinação de palavras chaves ao invés de utilizar a interpretação e a relevância dos termos consultados. O usuário terá que ler uma grande quantidade de páginas e selecionar a mais apropriada a sua necessidade. Esse tipo de comportamento consome tempo e o foco do usuário-aprendiz é disperso do seu objetivo. A utilização de um sistema inteligente que apoie o esclarecimento de dúvidas pretende resolver esse problema, apresentando as respostas mais precisas ou frases para as perguntas em linguagem natural. Exemplos de sistemas de esclarecimento de dúvidas são: sistema de pergunta-resposta, help-desk inteligentes, entre outros. Este trabalho utiliza uma abordagem arquitetônica para um sistema de pergunta-resposta baseado em três passos: análise da pergunta, seleção e extração da resposta e geração da resposta. Um dos méritos dessa arquitetura é utilizar técnicas que se complementam, tais como: ontologias, técnicas de recuperação de informação e uma base de conhecimento escrita em linguagem AIML para extrair a resposta de forma rápida. O foco deste trabalho é responder perguntas WH-question (O que, Quem, Quando, Onde, Quais, Quem) da língua inglesa
APA, Harvard, Vancouver, ISO, and other styles
43

Gondim, Halley Wesley Alexandre Silva. "Construção de visualizações de matrizes origem-destino no cenário do tráfego urbano com foco em avaliação de usabilidade." Universidade Federal de Goiás, 2016. http://repositorio.bc.ufg.br/tede/handle/tede/6584.

Full text
Abstract:
Submitted by JÚLIO HEBER SILVA (julioheber@yahoo.com.br) on 2016-12-09T17:56:30Z No. of bitstreams: 3 Tese - Halley Wesley Alexandre Silva Gondim - 2016 (1).pdf: 15892728 bytes, checksum: e9684125eabb07d49d83c85ef1bbf09f (MD5) Tese - Halley Wesley Alexandre Silva Gondim - 2016 (2).pdf: 10523014 bytes, checksum: 52042d7327e7971273d29f0761db1474 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Approved for entry into archive by Jaqueline Silva (jtas29@gmail.com) on 2016-12-13T19:13:04Z (GMT) No. of bitstreams: 3 Tese - Halley Wesley Alexandre Silva Gondim - 2016 (1).pdf: 15892728 bytes, checksum: e9684125eabb07d49d83c85ef1bbf09f (MD5) Tese - Halley Wesley Alexandre Silva Gondim - 2016 (2).pdf: 10523014 bytes, checksum: 52042d7327e7971273d29f0761db1474 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Made available in DSpace on 2016-12-13T19:13:04Z (GMT). No. of bitstreams: 3 Tese - Halley Wesley Alexandre Silva Gondim - 2016 (1).pdf: 15892728 bytes, checksum: e9684125eabb07d49d83c85ef1bbf09f (MD5) Tese - Halley Wesley Alexandre Silva Gondim - 2016 (2).pdf: 10523014 bytes, checksum: 52042d7327e7971273d29f0761db1474 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2016-09-26
Most of the medium and large cities in the world suffer from the problems related to the growth of the number of vehicles. Congestion, air pollution and weather are some examples of these problems, today constantly reminded of the great damage done to citizens. The use of Information Visualization techniques can serve to support the analysis of these problems and help identify viable and effective solutions for them. On the other hand, the application of Information Visualization to the problems of urban traffic is still a poorly explored area and generally focused on simple aspects of traffic. The present thesis thus addresses the lack of studies in this area, especially in the representation of data related to origin-destination (OD) matrices. In order to do so, a specific classification is proposed for visualizations aimed at the urban traffic scenario, with the purpose of facilitating the identification of works and authors related to the area. In addition, there is the creation of new visualizations, directed to OD arrays, in order to offer different alternatives in the representation of traffic data. Finally, an approach is proposed to evaluate visualizations of OD matrices and correlated information, with the intention of offering adequate feedback to interface designers and enabling the creation of more effective visualizations.
A maioria das cidades de médio e grande porte no mundo sofre dos problemas relacionados ao crescimento do número de veículos. Congestionamentos, poluição do ar e desperdício de tempo são alguns exemplos desses problemas, hoje constantemente lembrados frente aos grandes prejuízos causados aos cidadãos. A utilização de técnicas de Visualização de Informações pode servir para apoiar a análise desses problemas e ajudar a identificar soluções viáveis e efetivas para os mesmos. Por outro lado, a aplicação de Visualização de Informações aos problemas de tráfego urbano ainda é uma área pouco explorada e geralmente focada em aspectos simples do trânsito. A presente tese vem, assim, suprir a carência por estudos nessa área, em especial na representação de dados relacionados a matrizes Origem-Destino (OD). Para tanto, propõe-se uma classificação específica para visualizações voltadas ao cenário do tráfego urbano, com o objetivo de facilitar a identificação de trabalhos e autores relacionados à área. Além disso, há a criação de novas visualizações, voltadas para matrizes ODs, com o intuito de oferecer diferentes alternativas na representação de dados do trânsito. Por fim, propõe-se uma abordagem para avaliar visualizações de matrizes OD e informações correlacionadas, com o intuito de oferecer um feedback adequado aos designers de interface e possibilitar a criação de visualizações mais efetivas.
APA, Harvard, Vancouver, ISO, and other styles
44

Mota, Moises Roberto de Araujo. "Mapeamento sistemático sobre o uso de ontologias em informática médica." Universidade Federal da Paraí­ba, 2013. http://tede.biblioteca.ufpb.br:8080/handle/tede/6123.

Full text
Abstract:
Made available in DSpace on 2015-05-14T12:36:49Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 2692269 bytes, checksum: 7a18c5177603a00982be9d7f6234196b (MD5) Previous issue date: 2013-07-06
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
The number of studies on the use of Ontologies in Medical Informatics has grown through the years. It shows the interest in developing technologies with semantic bases for this new area of science. However, little work has been documented about how the area has developed, thus hampering the creation process of relevant projects in the field of Medical Informatics, since it is not possible to map the main research opportunities, gaps and needs of this area. Therefore, this project aims to map the overall development of this area, specifically on the use of Ontologies in Medical Informatics, in order to highlight and fill the area needs. For this, we used the methodology of systematic research known as Systematic Mapping, which follows a research protocol clearly defined, transparent and rigorous, enabling the study be evaluated and validated by the scientific community interested reproduced. In this way, the current knowledge was gathered in the literature on the Use of Ontologies in Medical Informatics. From automatic and manual searches, it was returned 23788 studies related to this research area. After conducting a rigorous selection, this number dropped to 511 relevant papers, which were performed on the further analysis for the proposed construction of Systematic Mapping. It was detected 07 characteristics of these studies, which allowed the observation of the main trends of growth of the area as a whole. The quality assessment of the selected works provided security to take conclusions of this research, considering that around 95% have strong evidence to support the presented results. Despite these results, we found some gaps in relation to the depth of this search. We concluded that the use of Ontologies in Medical Informatics has grown as expected,considering the reuse of ontologies, integration and interoperability of systems and different ontologies. About the opportunities, we identified in this area a need for methods for evaluation, validation, correctness, completeness and maintenance of new or already established ontologies, and also the development of applications and studies related totelemedicine, public health, education, robotics, evidence-based research, and financial management, focused on Medical Informatics
A quantidade de estudos no uso de Ontologias em Informática Médica tem crescido através dos anos. Isto demonstra o interesse no desenvolvimento de tecnologias com bases semânticas para esta nova área da ciência. No entanto, pouco tem sido documentado a respeito de como a área tem se desenvolvido, dificultando, assim, o processo de criação de projetos relevantes na área da Informática Médica, uma vez que não é possível mapear as principais oportunidades de pesquisa, lacunas e necessidades da área. Logo, o presente projeto tem o objetivo de mapear o desenvolvimento geral desta área, especificamente sobre o uso de Ontologias em Informática Médica, de modo a evidenciar e preencher as necessidades da área. Para tanto, foi utilizada a metodologia de pesquisa sistematizada conhecida como Mapeamento Sistemático, a qual segue um protocolo de pesquisa bem definido, transparente e rigoroso, permitindo que o estudo seja avaliado, validado e reproduzido pela comunidade científica interessada. Deste modo, foi reunido o conhecimento atual encontrado na literatura sobre o Uso de Ontologias em Informática Médica. A partir das buscas automáticas e manuais, foram retornados 23788 estudos relacionados ao domínio desta pesquisa. Após a realização de uma seleção rigorosa, este número caiu para 511 artigos relevantes, sobre os quais foram realizadas as análises mais aprofundadas para a construção do Mapeamento Sistemático proposto. Foram observadas 07 características destes estudos, que permitiram observar as principais tendências de crescimento da área como um todo. A avaliação da qualidade dos trabalhos selecionados forneceu segurança para a construção das conclusões desta pesquisa, tendo em vista que em torno de 95% possuem fortes evidências para apoiar os resultados apresentados. Apesar dos resultados, foram encontradas algumas lacunas no que diz respeito à profundidade da pesquisa. Foi possível concluir que o Uso de Ontologias em Informática Médica tem crescido de acordo com o esperado, considerando o reuso de ontologias, a integração e interoperabilidade de sistemas e ontologias diferentes. Quanto às oportunidades, identificamos que nesta área há a necessidade de métodos para avaliação, validação, corretude, completude e manutenção de ontologias novas ou já estabelecidas, como também o desenvolvimento de aplicações e estudos relacionados a telemedicina, saúde pública, educação, robótica, pesquisas baseadas em evidências, e gestão financeira, voltados para a Informática Médica
APA, Harvard, Vancouver, ISO, and other styles
45

Ribeiro, Hugo de Almeida. "Serviços de redes sociais para disseminação de informações de saúde em sistemas de monitoramento remoto de pacientes." Universidade Federal de Goiás, 2018. http://repositorio.bc.ufg.br/tede/handle/tede/9115.

Full text
Abstract:
Submitted by Ana Caroline Costa (ana_caroline212@hotmail.com) on 2018-11-30T19:09:50Z No. of bitstreams: 2 Dissertação - Hugo de Almeida Ribeiro - 2018.pdf: 2177519 bytes, checksum: fb8741d8762fdd3e58e586442025299e (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2018-12-03T13:16:23Z (GMT) No. of bitstreams: 2 Dissertação - Hugo de Almeida Ribeiro - 2018.pdf: 2177519 bytes, checksum: fb8741d8762fdd3e58e586442025299e (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Made available in DSpace on 2018-12-03T13:16:23Z (GMT). No. of bitstreams: 2 Dissertação - Hugo de Almeida Ribeiro - 2018.pdf: 2177519 bytes, checksum: fb8741d8762fdd3e58e586442025299e (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-11-22
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES
Healthcare demand is expected to surpass healthcare offer in the next years, encumbering the healthcare system. In one side we have an increase in life expectancy, and therefore the occurrence of chronic diseases, while on the other side we have a shortage of healthcare professionals. Remote patient monitoring systems can be used to continuously keep track of a person health status. When integrated to social networking services, we can build a carer network around the patient. This network is composed of formal (healthcare professionals) and informal carers (family and friends). Information regarding the patient health status can be disseminated within the carer network. Then the remote patient monitoring system may instruct informal carers to assist the patient before recommending formal care. Thus reducing the demands over the healthcare system. There are research initiatives on health information dissemination using social networking. But these initiatives are isolated. This dissertation aims to propose a domain model and an architectural model for remote patient monitoring systems that integrate social networking services unifying concepts found in state-of-the-art literature. The proposed solution is based on three sub-domains: remote patient monitoring systems, enable continuous health status monitoring; social networking services, allow actors to show interest in monitoring other actors health status; and event notification systems, distribute health information among actors. An skeletal system was built to validate the proposal. This skeletal systems consists on modifying an existing system to satisfy restrictions imposed by the proposed models and an usage scenario.
Espera-se que nos próximos anos a demanda por cuidados de saúde supere a oferta, debilitando o sistema de saúde. Os aumentos da expectativa de vida e da ocorrência de doenças crônicas vão de encontro a falta de profissionais de saúde. Sistemas de monitoramento remoto de pacientes podem ser usados para acompanhar continuamente o estado de saúde de uma pessoa. Quando integrados a serviços de redes sociais, uma rede de cuidadores pode ser formada ao redor do paciente. Esta rede é composta por cuidadores formais (profissionais de saúde) e informais (familiares e amigos). Informação a respeito do estado de saúde do paciente pode ser disseminada na rede de cuidadores. Dessa forma, o sistema de monitoramento remoto pode instruir cuidadores informais a auxiliar o paciente antes de recomendar cuidado profissional, reduzindo, portanto, as demandas sobre o sistema de saúde. Existem esforços de pesquisa de soluções que permitam a disseminação de informação de saúde usando abordagem de redes sociais. No entanto, essas pesquisas encontram-se isoladas. Este trabalho tem como objetivo propor um modelo de domínio e um modelo arquitetural que integrem serviços de rede social para disseminar informação de um paciente para sua rede de cuidadores, unificando os conceitos presentes na literatura. A solução apresentada baseia-se em três subdomínios: sistemas de monitoramento remoto de pacientes, os quais permitem o acompanhamento contínuo do estado de saúde dos pacientes; serviços de redes sociais, que possibilitam que os atores do sistema informem ter interesse em acompanhar o estado de saúde de outros atores; e sistemas de notificação de eventos, que distribuem as informações de saúde entre os atores. A validação foi realizada por meio de esqueleto de sistema, consistindo na modificação de um sistema existente, satisfazendo às restrições dos modelos propostos e atendendo a um cenário de uso.
APA, Harvard, Vancouver, ISO, and other styles
46

Wagner, Rosana. "PROCESSOS DE DESENVOLVIMENTO DE SOFTWARE CONFIÁVEL BASEADOS EM PADRÕES DE SEGURANÇA." Universidade Federal de Santa Maria, 2011. http://repositorio.ufsm.br/handle/1/5370.

Full text
Abstract:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
Organizations face a series of difficulties in answering to the demands that are projected by the norms and models of software security. The norms and models provide a set of good security practices which should followed but do not describe how these practices must be implemented. Security patterns document good security solutions which can be incorporated to the software process. However they are difficult to be incorporated in each software development phase. In way, this work proposes a methodology for the adaptation of software processes based on security requirements that are preconized by the security practices of the Systems Security Engineering Capability Maturity Model (SSE-CMM). The basis for adaptation is a process framework that is elaborated from the Rational Unified Process (RUP) and security patterns proposed on the literature. By means of this methodology, the project managers, or related roles, find support for their decisions referent to the implementation of information security. In addition, some process area2 pattern association rules have initially been proposed and inserted in the framework. Although they are only suggestions and should be adapted according to the necessity of each project. In addition they should be adjusted according to the understanding of each project engineer or manager. Finally, they should evolve to the extent that the organization learns from past projects. The methodology and the association rules are supported by a developed tool, the SMT- Tool. The aim of this tool is to help the development of the process adaptation task.
As organizações enfrentam uma série de dificuldades para atender às exigências previstas pelas normas e modelos de segurança de software. As normas e modelos fornecem um conjunto de boas práticas de segurança que devem ser seguidas, mas não descrevem como essas práticas devem ser implementadas. Padrões de segurança documentam boas soluções de segurança que podem ser incorporadas ao processo de software, mas são difíceis de serem incorporados em cada fase do desenvolvimento de software. Desta forma, a proposta deste trabalho propõe uma metodologia para adaptação de processos de software com base em requisitos de segurança, preconizados pelas práticas de segurança do Systems Security Engineering Capability Maturity Model (SSE-CMM). A adaptação tem como base um framework de processo elaborado a partir do Rational Unified Process (RUP) e de padrões de segurança propostos na literatura. A partir desta metodologia, os gerentes de projetos, ou papéis relacionados, encontram suporte para suas decisões referentes à implementação de segurança da informação. Ainda, algumas regras de associações de padrões às áreas de processo1, descritas pelo SSE-CMM, foram inicialmente propostas e inseridas no framework, porém, são apenas sugestões e devem ser adaptadas conforme a necessidade de cada projeto, bem como do entendimento de cada engenheiro ou gerente de projeto, e devem evoluir a medida que a organização aprenda com projetos passados. A metodologia e as regras de associações são suportadas por uma ferramenta, a SMT- Tool, desenvolvida com o objetivo de apoiar a realização da tarefa de adaptação de processos.
APA, Harvard, Vancouver, ISO, and other styles
47

Amaral, Marisa Munaretto. "METODOLOGIA PARA ANÁLISE E AVALIAÇÃO DE RISCOS POR COMPOSIÇÃO DE MÉTODOS." Universidade Federal de Santa Maria, 2011. http://repositorio.ufsm.br/handle/1/5372.

Full text
Abstract:
The information has become a valuable asset for organizations, and computer systems, is subject to various types of threats. Risk management is responsible for ensuring the integrity, confidentiality and availability of this information, identifying key vulnerabilities and threats that surround an information system. To ensure the protection of assets and reduce the incidence of security breaches, it is necessary to adopt risk management practices. Several methods have been proposed for this purpose, however, some differ significantly from each other and may result in classifying different measurements, even when applied to the same domain. This thesis proposes a methodology for analysis and risk assessment, which uses the composition of methods for more accurate results, where the risk of higher priority is obtained by weighting the methods analyzed. In order to validate the proposed methodology, we developed a computational tool that automates all stages of the process and performs the calculations necessary to prioritize the risks. The application scenario was the Data Processing Center, Federal University of Santa Maria. As a result, we obtained risk indicators potentially more accurate, since they reflect the risks prioritized based on weighting of the methods analyzed.
A informação tornou-se um ativo valioso para as organizações e, em sistemas computacionais, está sujeita a diversos tipos de ameaças. A gestão de riscos é responsável por garantir a integridade, a confidencialidade e a disponibilidade dessas informações, identificando as principais vulnerabilidades e ameaças que cercam um sistema de informação. Para assegurar a proteção dos ativos e diminuir a incidência de falhas de segurança, é necessário adotar práticas de gerenciamento de riscos. Vários métodos já foram propostos com esse objetivo, no entanto, alguns divergem significativamente entre si, podendo resultar em quantificações classificatórias divergentes, mesmo sendo aplicados em um mesmo domínio. Este trabalho propõe uma metodologia para análise/avaliação de riscos, que utiliza a composição de métodos para obter resultados mais precisos, onde o risco de maior prioridade é obtido através da ponderação dos métodos analisados. Com o objetivo de validar a metodologia proposta, foi desenvolvida uma ferramenta computacional que automatiza todas as fases da metodologia e realiza os cálculos necessários para priorizar os riscos existentes. O cenário de aplicação foi o Centro de Processamento de Dados da Universidade Federal de Santa Maria. Como resultado, obteve-se indicadores de risco potencialmente mais precisos, uma vez que refletem os riscos priorizados com base na ponderação dos métodos analisados.
APA, Harvard, Vancouver, ISO, and other styles
48

Maciel, Denise do Rocio. "USAGEO: MÉTODO PARA AVALIAÇÃO DE USABILIDADE EM SISTEMAS AGRÍCOLAS." Universidade Estadual de Ponta Grossa, 2018. http://tede2.uepg.br/jspui/handle/prefix/2563.

Full text
Abstract:
Submitted by Angela Maria de Oliveira (amolivei@uepg.br) on 2018-07-24T12:17:51Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Denise do Rocio Maciel.pdf: 4875592 bytes, checksum: 80eb2f6302787108c4d5c5db66be9efc (MD5)
Made available in DSpace on 2018-07-24T12:17:51Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Denise do Rocio Maciel.pdf: 4875592 bytes, checksum: 80eb2f6302787108c4d5c5db66be9efc (MD5) Previous issue date: 2018-03-12
O uso de sistemas agrícolas que consideram a dimensão espacial atribuída pelo uso de Informações Geográfica (IG) traz benefícios a agricultura. Aplicações que usam IG se deparam com dificuldades de usabilidade provenientes pela expansão de seu uso, crescimento da quantidade de dados geográficos, advento da internet, a diversidade e aumento no número de usuários. Dentre as necessidades de pesquisa relacionada a sistemas agrícolas se tem o desenvolvimento de método de avaliação que considere especificidades das informações geográficas. A fim de solucionar a problemática, este trabalho apresenta o UsaGeo, método para avaliação de usabilidade em sistemas agrícolas. O método apresenta resultados quantitativos e qualitativos, exige um especialista em usabilidade e acessibilidade para sua execução e é composto por quatro fases. O UsaGeo foi aplicado em quatro casos de estudo e constatou-se que identificou problemas relacionados as informações geográficas que dificilmente seriam detectados por métodos recorrentemente citados na literatura. A aplicação do UsaGeo na agricultura permite a criação de produtos de software com maior usabilidade, aumenta a taxa de adoção desses sistemas por parte dos agricultores, incrementa produtividade para setor e gera acréscimo na expansão e exploração do uso de informações geográficas.
The use of agricultural systems that consider the spatial dimension attributed by the use of Geographic Information (GI) brings benefits to agriculture. Applications that use GI face usability difficulties due to the expansion of its use, growth in the amount of geographic data, the advent of the Internet, diversity and increase in the number of users. Among the research needs related to agricultural systems is the development of an evaluation method that considers the specificities of the geographic information. In order to solve the problem, this work presents the UsaGeo, method for usability evaluation in agricultural systems. The method presents quantitative and qualitative results, requires a specialist in usability and accessibility for its execution and consists of four phases. UsaGeo was applied in four case studies and it was found that it identified problems related to the geographical information that would be difficult to be detected by methods recurrently cited in the literature. The application of UsaGeo in agriculture allows the creation of software products with greater usability, increases the rate of adoption of these systems by farmers, increases productivity for the sector and generates an increase in the expansion and exploitation of the use of geographical information..
APA, Harvard, Vancouver, ISO, and other styles
49

Marques, Delano Brandes. "SISTEMA INTEGRADO DE MONITORAMENTO E CONTROLE DA QUALIDADE DE COMBUSTÍVEL." Universidade Federal do Maranhão, 2004. http://tedebc.ufma.br:8080/jspui/handle/tede/348.

Full text
Abstract:
Made available in DSpace on 2016-08-17T14:52:51Z (GMT). No. of bitstreams: 1 Delano Brandes Marques.pdf: 3918036 bytes, checksum: 599a5c86f30b5b6799c9afd54e7b5de7 (MD5) Previous issue date: 2004-02-27
This work aims the implantation of an Integrated System that, besides allowing a better, more efficient and more practical monitoring, makes possible the control and optimization of problems related to the oil industry. In order to guarantee fuel s quality and normalization, the development of efficient tools that allow it s monitoring of any point (anywhere) and for any type of fuel is indispensable. Considering the variety of criteria, a decision making should be based on the evaluation of the most varied types of space data and not space data. In this sense, Knowledge Discovery in Databases process is used, where the Data Warehouse and Data Mining steps allied to a Geographic Information System are emphasized. This system presents as objective including several fuel monitoring regions. From different information obtained in the ANP databases, an analysis was carried out and a Data Warehouse model proposed. In the sequel, Data Mining techniques (Principal Component Analysis, Clustering Analysis and Multiple Regression) were applied to the results in order to obtain knowledge (patterns).
O presente trabalho apresenta estudos que visam a implantação de um Sistema Integrado que, além de permitir um melhor monitoramento, praticidade e eficiência, possibilite o controle e otimização de problemas relacionados à indústria de petróleo. Para garantir qualidade e normalização do combustível, é indispensável o desenvolvimento de ferramentas eficientes que permitam o seu monitoramento de qualquer ponto e para qualquer tipo de combustível. Considerando a variedade dos critérios, uma tomada de decisão deve ser baseada na avaliação dos mais variados tipos de dados espaciais e não espaciais. Para isto, é utilizado o Processo de Descoberta de Conhecimento, onde são enfatizadas as etapas de Data Warehouse e Data Mining aliadas ao conceito de um Sistema de Informação Geográfica. O sistema tem por objetivo abranger várias regiões de monitoramento de combustíveis. A partir do levantamento e análise das diferentes informações usadas nos bancos de dados da ANP foi proposto um modelo de data warehouse. Na seqüência foram aplicadas técnicas de mineração de dados (Análise de Componentes Principais, Análise de Agrupamento e Regressão) visando à obtenção de conhecimento (padrões).
APA, Harvard, Vancouver, ISO, and other styles
50

Anjos, Ivano Miranda dos. "PUPSI :uma proposta de processo unificado para pol?ticas de seguran?a da informa??o." Universidade Federal do Rio Grande do Norte, 2004. http://repositorio.ufrn.br:8080/jspui/handle/123456789/18085.

Full text
Abstract:
Made available in DSpace on 2014-12-17T15:48:07Z (GMT). No. of bitstreams: 1 IvanoMS.pdf: 3097163 bytes, checksum: bd3961677e236c9bf0982f3d9ccf0f64 (MD5) Previous issue date: 2004-04-30
The way to deal with information assets means nowadays the main factor not only for the success but also for keeping the companies in the global world. The number of information security incidents has grown for the last years. The establishment of information security policies that search to keep the security requirements of assets in the desired degrees is the major priority for the companies. This dissertation suggests a unified process for elaboration, maintenance and development of information security policies, the Processo Unificado para Pol?ticas de Seguran?a da Informa??o - PUPSI. The elaboration of this proposal started with the construction of a structure of knowledge based on documents and official rules, published in the last two decades, about security policies and information security. It's a model based on the examined documents which defines the needed security policies to be established in the organization, its work flow and identifies the sequence of hierarchy among them. It's also made a model of the entities participating in the process. Being the problem treated by the model so complex, which involves all security policies that the company must have. PUPSI has an interative and developing approach. This approach was obtained from the instantiation of the RUP - Rational Unified Process model. RUP is a platform for software development object oriented, of Rational Software (IBM group). Which uses the best practice known by the market. PUPSI got from RUP a structure of process that offers functionality, diffusion capacity and comprehension, performance and agility for the process adjustment, offering yet capacity of adjustment to technological and structural charges of the market and the company
() trato com os ativos de informa??o representa hoje principal fator deteminante para o sucesso e, at? mesmo, perman?ncia das organiza??es no mundo globalizado. () n?mero de incidentes de seguran?a da informa??o est? crescendo nos ?ltimos anos. A implanta??o de pol?ticas de seguran?a da informa??o que busquem manter os requisitos de seguran?a dos ativos nos n?veis desejados, caracteriza-se como prioridade maior para as organiza??es. Esta disserta??o prop?e um processo unificado para elabora??o, manuten??o e desenvolvimento de pol?ticas de seguran?a da informa??o, o Processo Unificado para Pol?ticas de Seguran?a da informa??o PUPSI. A elabora??o dessa proposta foi iniciada com a constru??o de uma base de conhecimento fundamentada em documentos e normas oficiais, publicados nas ?ltimas duas d?cadas, que tratam sobre o tema seguran?a da informa??o e pol?ticas de seguran?a. Trata-se de um modelo elaborado a luz dos documentos pesquisados, que define as pol?ticas de seguran?a necess?rias a serem implantadas em uma organiza??o, seus fluxos de trabalho e identifica uma sequ?ncia e hierarquia entre elas, bem como ? feito uma modelagem das entidades participantes do processo. Diante da dimens?o e complexidade do problema que o modelo trata, o qual envolve todas as pol?ticas ele seguran?a que uma organiza??o deve possuir, o PUPSI possui uma abordagem interativa e incremental. Esta abordagem foi adquirida com a instancia??o do modelo ao RUP - Rational Unified Process. O RUP ? uma plataforma para desenvolvimento de software orientado a objeto, da Rational Software (grupo IBM) que utiliza as melhores pr?ticas reconhecidas pelo mercado. O PUPSI herdou do RUP uma estrutura de processo que oferece funcionalidade, capacidade de difus?o e compreens?o, desempenho e agilidade na readequa??o do processo, possuindo capacidade de se adequar as mudan?as tecnol?gicas e estruturais do mercado e da organiza??o
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography