To see the other types of publications on this topic, follow the link: Programas de Computador.

Dissertations / Theses on the topic 'Programas de Computador'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Programas de Computador.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Gomide, Eduardo Teixeira. "Desenvolvimento de um ambiente de simulação para projeto de sistemas de tempo real." [s.n.], 1986. http://repositorio.unicamp.br/jspui/handle/REPOSIP/259625.

Full text
Abstract:
Orientador : Mauricio Ferreira Magalhães<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia de Campinas<br>Made available in DSpace on 2018-07-14T20:08:27Z (GMT). No. of bitstreams: 1 Gomide_EduardoTeixeira_M.pdf: 2884561 bytes, checksum: 824a15c82f92b7fd095b4f1d3c21111e (MD5) Previous issue date: 1986<br>Resumo: O simulador GMB* faz parte de um ambiente para projeto e programação de aplicações em tempo-real em desenvolvimento no Setor de Automação Industrial do Departamento de Engenharia Elétrica/FEG/UNICAMP. No projeto e na Implementação do simulador GMB* procurou-se enfatisar os aspectos de transportabilidade, estando o mesmo, atualmente, disponível em sistemas operacionais compatíveis com o CP/M e com o MS-DOS. A característica de modularidade foi também privilegiada permitindo a simulação de modelos de grandes dimensões em microcomputadores de oito e dezesseis 'bits'. Para a Interação com o usuário, o simulador dispõe de uma Interface 'homem-máquina' amigável que possibilita uma fácil manipulação do modelo da aplicação. Através da utilização do simulador pode-se validar várias fases de um projeto de aplicação em tempo-real, tendo em vista a dinâmica do modelo e o fluxo de dados do mesmo<br>Abstract: Not informed<br>Mestrado<br>Mestre em Ciências
APA, Harvard, Vancouver, ISO, and other styles
2

Mendes, Jefferson Bueno. "Desenvolvimento de um sistema de inventário florestal por computador." reponame:Repositório Institucional da UFPR, 2013. http://hdl.handle.net/1884/25364.

Full text
Abstract:
Os objetivos deste trabalho foram : propor uma metodologia de desenvolvimento, construir e testar um sistema de inventário florestal por computador para apoiar os processos de planejamento, programação e controle da produção florestal de uma organização que tem por objetivo principal a produção de madeira e carvão vegetal . 0 sistema foi desenvolvido por um conjunto ordenado de atividades que interagem para : especificar os requisitos do sistema, projetar o sistema que atenda estes requisitos, e implementá-lo na organização. As atividades realizadas para desenvolver o sistema foram : identificação de problemas e oportunidades, análise organizacional, delineamento de soluções, análise de viabilidade, concepção do sistema, programação da implantação, organização da base de apoio, construção do sistema, teste, implantação e avaliação do sistema. As principais técnicas utilizadas foram análise e programação estruturada, utilizando conhecimentos de : hardware, programação, linguagem basic, dendrometria, estatística aplicada, análise de regressão e sistemas de amostragem. 0 sistema concebido se caracteriza por : adaptabi1 idade a diferentes sistemas de amostragem, simplicidade operacional, e modularidade. E formado por dois subsistemas: de amostragem e de processamento, sendo este composto por 17 módulo B de processamento operáveis em microcomputadores da geração de 16 bits. Para testar o sistema foi realizado um inventário no Núcleo I de uma empresa, localizada na regido sul do Estado de Mato Grosso do Sul, onde foram amostrados 36 projetos de ref1orestamento de diversas idades e espécies de Eucalyptus © Pinus, somando aproximadamente 24.560 hectares. 0 teste dos módulos de processamento foi parcial em razão de : inexistência de registros históricos do crescimento das florestas amostradas; objetivo único de produção da organização . 0 sistema já se encontra em operacionalização, recebendo aprimoramentos em função dos testes realizados. Novos módulos de processamento poderio ser desenvolvidos para a realização de análises econômicas.
APA, Harvard, Vancouver, ISO, and other styles
3

Manacero, Junior Aleardo. "Predição do desempenho de programas paralelos por simulação do grafo de execução." [s.n.], 1997. http://repositorio.unicamp.br/jspui/handle/REPOSIP/260623.

Full text
Abstract:
Orientador: Andre L. Morelato França<br>Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação<br>Made available in DSpace on 2018-07-22T21:03:59Z (GMT). No. of bitstreams: 1 ManaceroJunior_Aleardo_D.pdf: 9426763 bytes, checksum: ebcfb5b39f21c096cc81e04234c4c74a (MD5) Previous issue date: 1997<br>Resumo: O desenvolvimento de programas para ambientes de programação paralela exige do projetista uma atenção especial quanto ao desempenho obtido pelo conjunto programa-máquina. Os custos elevados de processamento fazem com que seja necessário obter o melhor desempenho possível para reduzir custos e tempos de processamento. O problema passa a ser como definir medidas de desempenho e como realizar as medições para verificar se o sistema é eficiente ou não. Existem diversas ferramentas de análise ou predição de desempenho, que procuram fornecer ao usuário dados sobre o programa, Para auxiliar o projetista a localizar pontos críticos do mesmo e fazer acertos para melhorar o desempenho do sistema. Infelizmente a maioria dessas ferramentas trabalha com grandes aproximações no modelo do ambiente paralelo, fazendo com que os resultados obtidos não sejam totalmente precisos. Além disso, quando essas ferramentas fazem uso de medidas experimentais para a realização da análise, elas acabam introduzindo erros experimentais pela necessidade de inserir código adicional ao programa analisado. Neste trabalho é apresentada uma nova metodologia para realizar medidas de desempenho sem a necessidade de código adicional ao programa e, além disso, sem a necessidade de usar a máquina alvo do programa durante todo o processo. A metodologia faz a reescrita do código executável para um grafo de execução... Observação: O resumo, na íntegra, poderá ser visualizado no texto completo da tese digital<br>Abstract: The process of writing a new code for a parallel programming environment demands from its designer a lot of attention on the performance achieved by the pair program-machine. The high processing costs justify the efforts to reduce processing time and costs, which leads to the problem of defining performance metrics and approaches to measure the system performance. Several performance analysis and prediction tools are available to help designers in such a task. With those tools the designer can locate critical points in the code and look for solutions to improve the program's performance. Unfortunately, most of those tools make so many approximations in the parallel environment model, that make themselves somewhat inaccurate. Moreover method of measurement usually adopted get performance data through an instrumented program's run. This approach affects the measures since additional code is inserted into the program under analysis. This work introduces a new method to make such measurements without including additional code nor requiring runs on the target parallel machine. The proposed approach is to rewrite the executable code into an execution graph, which is a directed graph that keeps the information about the processing time of each machine instruction included in the code under analysis... Note: The complete abstract is available with the full electronic digital thesis or dissertations<br>Doutorado<br>Doutor em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
4

Figueiredo, Filho Antonio Gonçalves. "Um processo de sintese de sistemas reativos." [s.n.], 1991. http://repositorio.unicamp.br/jspui/handle/REPOSIP/275987.

Full text
Abstract:
Orientador: Hans Kurt Edmund Liesenberg<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação<br>Made available in DSpace on 2018-07-14T02:20:01Z (GMT). No. of bitstreams: 1 FigueiredoFilho_AntonioGoncalves_M.pdf: 2872725 bytes, checksum: 4e5fa0936d1d93dfbbc8d3144be0ee22 (MD5) Previous issue date: 1991<br>Resumo: Esta dissertação apresenta um gerador de programas adequado para implementar o controle de sistemas reativos complexos. Este processo de geração consiste em uma síntese de sistemas reativos a partir de uma especificação, baseada em estadogramas. Os estadogramas são diagramas de estados convencionais estendidos suportando conceitos de hierarquia, concorrência e comunicação. Esta ferramenta. comporta-se como um tradutor que recebe como entrada uma descrição textual (i.e., um programa escrito em uma linguagem descritiva de estadogramas - LEG) e produz como saída um programa funcionalmente equivalente em C. Um programa escrito em LEG associa código inerente ao tratamento do controle da aplicação (cÓdigo LEC propriamente dito) e cÓdigo responsáve1 pela aplicação, (cÓdigo escrito em C). Para ilustrar uma aplicação desta ferramenta, descreve-se sua. utilização na construção de um editor topológico.<br>Abstract: A Program generator appropriate to implement the complex reactive systems control is presented. This generation process consists in a synthesis of reactive systems from a statecharts-based specification. Statecharts are a broad extension of conventional state diagrams supporting the notion of hierarchy, concurrency and communication. This tool behaves like a translator that receives a textual description of a statechart (i.e., a program written in a statecharts language - LEG) in its input and it outputs a functionally equivalent C program A program written in LEG combines code inherent to application control (represented by LEG code) and to application code (code written in C). An application of this tool in a construction of a topological editor is described.<br>Mestrado<br>Mestre em Ciência da Computação
APA, Harvard, Vancouver, ISO, and other styles
5

Batista, Junior Joinvile. "Sistema automatizado de documentação grafica." [s.n.], 1986. http://repositorio.unicamp.br/jspui/handle/REPOSIP/261538.

Full text
Abstract:
Orientador : Mario Jino<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica<br>Made available in DSpace on 2018-07-14T06:07:22Z (GMT). No. of bitstreams: 1 BatistaJunior_Joinvile_M.pdf: 7930091 bytes, checksum: 82aa1d13998fae1213f9ee02208812ee (MD5) Previous issue date: 1986<br>Resumo: O objetivo deste trabalho é o desenvolvimento de uma ferramenta de software, denominada SADG (Sistema Automatizado de Documentação Gráfica), que permita a geração da forma gráfica, a partir da forma programa, de uma linguagem de especificação (normatizada pelo CCITT) denominada SDL (Specification and Description Language). A saída gráfica é possível em impressora e terminal de vídeo gráficos. Apresenta-se uma descrição sucinta sobre SDL e as metas para a ferramenta SADG. A seguir são apresentados os módulos do SADG, com ênfase para o módulo responsável pela distribuição de símbolos nas páginas e substituição de conectores e labels por linhas de conexão, que constitui a parte principal deste trabalho. Ao final são apresentadas perspectivas de evolução em relação às funções realizadas pelo SADG e considerações de desempenho do SADG. Embora a implementação do SADG tenha visado a forma gráfica de SDL, os algoritmos apresentados para distribuição de símbolos e linhas de conexão aplicam-se a fluxogramas genéricos. Técnicas utilizadas para geração automática de fluxogramas e roteamento de circuito integrado são sucintamente apresentadas e comparadas com as soluções adotadas no SADG<br>Mestrado<br>Mestre em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
6

Peres, Leticia Mara. "Estrategias de seleção de caminhos no contexto de criterios estruturais de teste de software." [s.n.], 1999. http://repositorio.unicamp.br/jspui/handle/REPOSIP/259914.

Full text
Abstract:
Orientadores: Silvia Regina Vergilio, Mario Jino<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação<br>Made available in DSpace on 2018-07-26T08:01:35Z (GMT). No. of bitstreams: 1 Peres_LeticiaMara_M.pdf: 8518550 bytes, checksum: 2de6ca87d235b1b8960f087717081807 (MD5) Previous issue date: 1999<br>Resumo: Critérios estruturais de teste têm o objetivo de auxiliar a etapa de geração de dados de teste e de avaliar a adequação de um conjunto de casos de teste, oferecendo medidas de cobertura. Eles requerem a execução de caminhos do programa que exercitem alguns elementos, tais como: comandos, decisões, definições e usos de variáveis. A seleção de caminhos e conseqüente geração de dados de teste para aplicação de um critério estrutural é uma das etapas mais difíceis de serem automatizadas. Pois, é indecidível determinar um dado de entrada para executar um particular caminho em um programa; é indecidível determinar até mesmo se esse dado existe, ou seja, se o caminho é ou não executável. Isto, aliado à eficácia dos dados gerados, aumenta a importância dessa etapa e conseqüentemente os custos de teste. Por isso, vários trabalhos na literatura ressaltam a importância de estratégias para minimizar o número de caminhos não executáveis selecionados para satisfazer um dado critério estrutural. Este trabalho tem como objetivos estudar, propor e fornecer mecanismos para automatização e validação de estratégias de seleção de caminhos a serem utilizadas em conjunto com critérios de teste estrutural. São propostas estratégias que consideram diferentes características de programas para seleção de caminhos visando: aumentar a eficácia, facilitar a etapa de geração de dados, e reduzir os efeitos causados por caminhos não executáveis no teste de software. Uma estrutura de representação /automatização dessas estratégias é apresentada e um módulo que implementa essa estrutura é descrito. O módulo é uma extensão à ferramenta Poke-Tool que apóia a utilização de diferentes critérios de teste e foi utilizado para avaliar uma estratégia proposta com o objetivo de minimizar o número de caminhos não executáveis selecionados. Esta aplicação permitiu detectar algumas estruturas de programa para os quais a estratégia avaliada não alcança seu objetivo e também verificar aspectos de eficácia dos dados gerados para a execução dos caminhos selecionados<br>Abstract: Testing criteria are useful in the task of test case generation and they are predicates to consider the testing activity ended, that is, to determine the adequation of a test set. They require the execution of paths in the program that exercise some elements such as statements, decisions, definitions and uses of variables. Selecting paths and generating automatic test data for a given structural criterion are very hard activities since it is not always possible to determine a data that executes a particular path in a program; it is even undecidable whether this data exists, that is, whether the path is feasible. This makes those activities difficult and increases the cost of testing. Several researches attach importance to strategies that minimize the number of infeasible selected paths to cover structural criteria. The goal of this work is to study, propose and offer strategies to select paths and mechanisms to automate and validate these strategies to be used with structural criteria. The proposed strategies consider different characteristics of programs for paths selection with the goal of: increasing the efficacy, easing the test data generation and reducing the effects caused by infeasible paths in the software testing. A structure to represent these strategies are presented. A module that implements this structure is described. This module is an extension to the testing tool named Poke-Tool, that supports different structural testing criteria. It was used to evaluate a strategy that proposes to 'minimize the number of infeasible selected paths. This application was guided to the detection of some program structures for which the evaluated strategy did not meet its objective and pointed out some results about the efficacy of the generated test data<br>Mestrado<br>Mestre em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
7

Oliveira, Rafael Garlet de. "Contribuições para melhoria do processo de verificação formal de propriedades em programas AADL." reponame:Repositório Institucional da UFSC, 2012. http://repositorio.ufsc.br/xmlui/handle/123456789/95694.

Full text
Abstract:
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pòs-graduação em Engenharia de Automação e Sistemas, Florianópolis, 2011<br>Made available in DSpace on 2012-10-26T05:05:01Z (GMT). No. of bitstreams: 1 296872.pdf: 1897409 bytes, checksum: 109437d10a6b10646d5638bb03afd255 (MD5)<br>projeto de sistemas embarcados criticos exige o uso de metodologias adequadas, visto que falhas no sistema podem causar danos catastroficos. Neste contexto se enquadra o projeto Topcased, o qual propõe uma série de ferramentas capazes de suportar a verificação formal de propriedades. A linguagem AADL tem um papel fundamental neste processo, pois sua utilização permite o emprego da transformação de modelos e a aplicação da verificação formal de propriedades. Entretanto, a especificação das propriedades de verificação e a análise dos seus resultados são ainda topicos em aberto. Esta dissertação visa suprir esta carência propondo um assistente para especificação de propriedades de verificação na linguagem AADL e uma interface para a visualização dos resultados de verificação, juntamente com um simulador de contraexemplos. O assistente construido classica as propriedades em padrões pre-definidos, utilizando uma linguagem natural ao usuário. Para validar as ferramentas desenvolvidas realizou-se um estudo de caso, o qual consistiu da especificação e verificação de propriedades de um sistema de marcapasso. Desta forma, este trabalho contribui com a melhoria da cadeia de verificação da linguagem AADL no escopo do projeto Topcased.
APA, Harvard, Vancouver, ISO, and other styles
8

Soudré, Marlon Marques. "Uma avaliação experimental da plataforma parallella utilizando controle preditivo baseado em modelo como um estudo de caso." reponame:Repositório Institucional da UnB, 2017. http://repositorio.unb.br/handle/10482/23736.

Full text
Abstract:
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2017.<br>Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-06-06T12:24:42Z No. of bitstreams: 1 2017_MarlonMarquesSoudré.pdf: 3841755 bytes, checksum: b8cb63f1adbded06ea18d5211ef11182 (MD5)<br>Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-06-23T21:06:12Z (GMT) No. of bitstreams: 1 2017_MarlonMarquesSoudré.pdf: 3841755 bytes, checksum: b8cb63f1adbded06ea18d5211ef11182 (MD5)<br>Made available in DSpace on 2017-06-23T21:06:12Z (GMT). No. of bitstreams: 1 2017_MarlonMarquesSoudré.pdf: 3841755 bytes, checksum: b8cb63f1adbded06ea18d5211ef11182 (MD5) Previous issue date: 2017-06-23<br>Nas últimas décadas, o poder computacional de sistemas embarcados têm crescido de forma muito rápida. Em geral, tais sistema são projetados para operar sob restrições como portabilidade (peso e tamanho), consumo de recursos, baixo consumo de energia e dissipação de potência. Assim, motivado pelos fatores supracitados e pelo avanço tecnológico, assim como pela demanda crescente de desempenho por parte das aplicações embarcadas, têm surgido vários processadores e plataformas de hardware que fazem uso de arquiteturas multicore, com destaque para a Parallella, uma plataforma de alto desempenho e baixo consumo energético. Nesse sentido, o presente trabalho traz a proposta de se avaliar tal plataforma sob uma abordagem experimental, como foco em seu coprocessador Epiphany de 16 cores, quando utilizada como um acelerador em software para aplicações de controle preditivo baseado em modelo como um estudo de caso, devido sua relevância para o grupo de pesquisa do LEIA (Laboratório de Sistemas Embarcados e Aplicações de Circuitos Integrados – Universidade de Brasília). Os resultados mostram que, apesar de restrições críticas como o tamanho da memória local dos cores, a plataforma Parallella se apresenta como uma arquitetura em potencial, podendo ser vista como uma alternativa à aceleração de algoritmos em hardware. Melhorias futuras como a expansão do número de núcleos do MPSoC Epiphany e da memória local dos mesmos, como previsto pelos fundadores do projeto, poderão alavancar ainda mais o uso de tal arquitetura em aplicações embarcadas.<br>In the last decades, the computational power of embedded systems has grown very fast. In general, such systems are designed to operate under constraints such as portability, resource consumption, low power consumption and power dissipation. Thus, due to the aforementioned factors and technological advances, as well as the increasing demand for performance by embedded applications, there have been several processors and hardware platforms that make use of multicore architectures, with emphasis on a Parallella, a platform of high performance and low consumption. In this sense, the present work presents a proposal to evaluate such platform in an experimental approach, focusing on its Epiphany 16-core co-processor, when used as a software accelerator for model-based predictive control applications as a case study, due to its relevance to the research group of LEIA (Laboratory of Embedded Systems and Applications of Integrated Circuits - University of Brasilia). The results show that, despite critical constraints such as the local memory size of the cores, a Parallella platform presents itself as a potential architecture and can be seen as an alternative to accelerating hardware algorithms. Future improvements such as the expansion of the number of MPSoC Epiphany cores and their local memory, as predicted by the founders of the project, can leverage the use of this architecture in embedded applications
APA, Harvard, Vancouver, ISO, and other styles
9

Toaldo, Juliano Rogerio. "Utilizando análise de mutantes no teste de programas prolog." reponame:Repositório Institucional da UFPR, 2011. http://hdl.handle.net/1884/25116.

Full text
Abstract:
Resumo: Diversos critérios e ferramentas de teste têm sido propostos ultimamente com o objetivo de auxiliar a seleção e a avaliação de um conjunto de dados de teste. Dentre esses critérios, destacam-se os critérios baseados em análise de mutantes, que têm se mostrado um dos mais eficazes em revelar defeitos. Entretanto, esses trabalhos tratam do teste de programas escritos em linguagens procédurals e/ou orientadas a objeto. São poucos os trabalhos da literatura que abordam o teste de programas lógicos, tais como os escritos em Prolog, e a maioria deles não tem como objetivo a quantificação da atividade de teste e o estabelecimento de medidas de cobertura. Este trabalho trata da aplicação do critério Análise de Mutantes no teste de programas Prolog. Um conjunto de operadores de mutação para essa linguagem é proposto. O conjunto está baseado nas principais características do Prolog e em erros comuns que os programadores podem cometer nesse paradigma. Uma ferramenta de teste chamada MutProlog é descrita e resultados de experimentos com essa ferramenta mostram a aplicabilidade dos operadores propostos e permitem a comparação com a abordagem estrutural.
APA, Harvard, Vancouver, ISO, and other styles
10

Rodrigues, Daniel Wyllie Lacerda. "Uma avaliação comparativa de interfaces homem-computador em programas de geometria dinâmica." Florianópolis, SC, 2002. http://repositorio.ufsc.br/xmlui/handle/123456789/84249.

Full text
Abstract:
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção.<br>Made available in DSpace on 2012-10-20T07:38:35Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-26T01:29:32Z : No. of bitstreams: 1 185572.pdf: 25031810 bytes, checksum: 064ae165b76741615eb1d637a69b2aad (MD5)<br>A Geometria Dinâmica é uma poderosa ferramenta para o aprendizado de uma série de disciplinas gráficas e matemáticas. A partir da construção de modelos geométricos precisos e interativos, os usuários podem usufruir de uma variedade de aplicações, das quais destacam-se: a visualização de lugares geométricos, a descoberta de relações entre elementos e a obtenção de provas experimentais de teoremas para cada modelo criado. Vários programas contendo essas características surgiram na década passada e vêm evoluindo desde então. A trinca Cabri Géomètre, The Geometer's Sketchpad e Cinderella revelou ser composta pelos mais significativos. Neste trabalho busca-se comparar as diferenças entre as abordagens de IHC (interface homem-computador) adotadas por cada um dos três programas citados. Para fundamentar este estudo, primeiramente são abordados os conhecimentos provenientes das áreas da ergonomia e do design de interfaces. Posteriormente, com base nos fundamentos e nas aplicações da geometria dinâmica, assim como nas discussões travadas pelos projetistas destes aplicativos, realiza-se uma avaliação envolvendo alunos de graduação, de pós-graduação e professores de matemática e de expressão gráfica. Como resultado, verifica-se que mesmo em suas versões mais recentes, estes programas trazem uma série de características que dificilmente podem ser julgadas e determinadas sob um mesmo ponto de vista.
APA, Harvard, Vancouver, ISO, and other styles
11

Silva, Filipe Correa Lima da. "Uma ferramenta para o ensino de inteligência artificial usando jogos de computador." Universidade de São Paulo, 2008. http://www.teses.usp.br/teses/disponiveis/45/45134/tde-15052008-174633/.

Full text
Abstract:
A queda do interesse por parte de novos universitários, para cursos de ciência da computação em várias universidades do mundo [55, 68], é um sinal para começarmos a pensar se um dos motivos dessa queda tem relação com a forma pela qual o ensino de computação está sendo conduzido. Nessa linha, perguntamos se existem maneiras de tornar o ensino de computação mais interativo e motivante para os alunos da nova geração, os quais cresceram no meio de uma das categorias mais complexas de software existentes hoje: os jogos de computador [10]. Esses softwares ficam cada vez mais interativos, complexos e ricos em detalhe com o passar do tempo. Conforme será exposto, por meio do estudo de algumas iniciativas de pesquisadores nesse sentido, o ensino de ciência da computação pode se tornar mais interessante e rico com a utilização de jogos de computador como recurso didático, para capturar a atenção dessa nova geração de estudantes. Com base nesse resultado, vamos focar nossa contribuição no ensino de lógica em cadeiras de Inteligência Artificial (IA), uma área de concentração da Ciência da Computação. Apresentamos uma ferramenta que chamamos de Odin, para construir e visualizar especificações executáveis de IA, por meio da linguagem PROLOG, em ambientes tridimensionais de jogos de computador. Entendemos que essa ferramenta pode ser utilizada como um recurso didático em cursos de lógica para alunos em nível de graduação. Como principal benefício, o aluno tem a possibilidade de explorar, observar e interagir com os resultados de seu trabalho. Essa possibilidade de visualização é o que parece reter a atenção do aluno, de acordo com pesquisadores na área. Disponibilizamos dois cenários de uso: O labirinto e o Mundo de Wumpus, dois cenários que juntos podem ser utilizados para cobrir uma boa parte da carga didática de um curso de lógica para graduação. Outros cenários podem ser desenvolvidos posteriormente por meio de extensão do framework composto por classes C++. A ferramenta foi utilizada em duas cadeiras de inteligência artificial no Instituto de Matemática e Estatística, da Universidade de são Paulo. Consideramos que a recepção da ferramenta por parte dos alunos foi positiva.<br>The interest in Computer Science related courses is dropping considerably as reported by various universities around the world. Among the factors that are causing this scenario to take place, one could certainly be the way Computer Science courses are being taught. With that in mind, we have asked if there are ways to teach Computer Science in a more engaging and interactive manner, so as to appeal to the new generation of students that grew in constant touch with one of the most complex and sophisticated categories of existing software, the interactive 3D computer games. This category of software is growing more intricate, complex and rich in detail day by day. And students seem to love it. The literature review presented in the course of this work will show that the use of computer games in teaching, especially in computer science courses, can be an effective way of providing an engaging, interactive and visually rich learning environment for students of the new generation. With this basis, our key contributions focus on the teaching of logic in Artificial Intelligence(AI) related courses, an important area within the Computer Science Curriculum. We propose a tool called Odin, for building executable specifications of AI, using the PROLOG language, in the form of interactive 3D computer games. We understand that this tool can be used as a didactic resource for undergraduate logic courses. The main benefit is that it enables the student to explore, observe and interact with the result of his own designs, which is what seems to capture the students attention, according to researchers in the field. We provide two scenarios: the labyrinth problem and the Wumpus World problem. Scenarios that combined can cover a large part of an undergraduate logic course Syllabus. The tool is extensible so that more scenarios can be added, by extending the framework composed of C++ classes. The tool was used in two graduate AI courses, in the Statistic and Mathematics Institute of the University of S~ao Paulo. We consider that the reception of the tool by the students was positive.
APA, Harvard, Vancouver, ISO, and other styles
12

Maziero, Vilson Francisco. "Desenvolvimento e teste de um programa computacional para simulação de plantas térmicas e de potência /." Ilha Solteira, 2012. http://hdl.handle.net/11449/88846.

Full text
Abstract:
Orientador: Ricardo Alan Verdú Ramos<br>Coorientador: Emanuel RochaWoiski<br>Banca: João Batista Aparecido<br>Banca: Paulo Hélio Kanayama<br>Resumo: O presente trabalho teve como objetivo o desenvolvimento e teste de um protótipo de um programa computacional para simulação de plantas térmica e de potência, com os principais recursos de programas comerciais existentes, com baixo custo e com interface gráfica mais amigável. O referido programa foi denominado TPPS (abreviação de Thermal Power Plant Software), tendo sido desenvolvido na linguagem object pascal, utilizando a IDE do DELPHI e a biblioteca FLUIDPROP, na qual constam os componentes para cálculo das propriedades termodinâmicas envolvidas. Para tanto, inicialmente é apresentada uma breve descrição de alguns programas computacionais disponíveis no mercado que comumente são utilizados no meio acadêmico sendo que, dentre eles, foram escolhidos três (Cycle-Tempo, EES e IPSEpro) para efeito comparativo dos resultados das simulações com o programa desenvolvido, tendo como base duas plantas básicas, uma de geração e outra de cogeração de energia. Foi utilizada uma metodologia de simulação que consiste na avaliação dos processos, dos dados e do resultado dos cálculos obtidos. Para tanto, foram consideradas as hipóteses de regime permanente; variações das energias cinéticas e potencial são desprezadas em virtude de se desejar apenas um simples comparativo de valores das propriedades termodinâmicas calculadas; processos adiabáticos em todos os equipamentos que fazem parte dos ciclos, exceto para trocadores de calor, para os quais um parâmetro de eficiência define a quantidade de calor transferida ao meio. Os resultados obtidos foram bastante satisfatórios, tendo em vista que não houve discrepâncias entre os resultados obtidos por cada um dos programas, mostrando que a ferramenta desenvolvida, em sua primeira versão, atende os requisitos a que se propôs. Por fim, são apresentados resultados de uma simulação de uma planta de cogeração mais complexa, através do TPPS<br>Abstract: This study aimed to develop and test a prototype of a computer program for simulation of thermal and power plants, with the main sources of existing commercial programs, with low cost and friendlier graphical interface. The program was denominated TPPS (abbreviation for Thermal Power Plant Software), and has been developed in Object Pascal language, using the Delphi IDE and FLUIDPROP library, which contains the components for calculating the thermodynamic properties involved. Therefore, initially presents a brief description of some computational programs available that are commonly utilized in the academic environment and among them, three were chosen (Cycle-Time, EES and IPSEpro) for comparison of the simulation results with the program developed, based on two basic plants, one of power generation and the other one of cogeneration. The simulation methodology consists of the evaluation of the processes, data and results obtained from the calculations. Therefore, it was considered the hypothesis of steady state and the variations of kinetic and potential energies were neglected because just a simple comparison of calculated values of thermodynamic properties; adiabatic processes in all devices of the cycles, except for heat exchangers, for which an efficiency parameter defines the amount of heat transferred to the environment. The results were quite satisfactory, considering that there were no discrepancies between the results obtained by each one of the programs, showing that the first version of the software developed meets the proposed requirements. Finally, results of simulation of a more complex cogeneration plant through the TPPS are presented<br>Mestre
APA, Harvard, Vancouver, ISO, and other styles
13

Maziero, Vilson Francisco [UNESP]. "Desenvolvimento e teste de um programa computacional para simulação de plantas térmicas e de potência." Universidade Estadual Paulista (UNESP), 2012. http://hdl.handle.net/11449/88846.

Full text
Abstract:
Made available in DSpace on 2014-06-11T19:23:38Z (GMT). No. of bitstreams: 0 Previous issue date: 2012-12-20Bitstream added on 2014-06-13T19:29:57Z : No. of bitstreams: 1 maziero_vf_me_ilha.pdf: 2130225 bytes, checksum: 3cf6fd4784a5f3c4531fa30c66f2d85d (MD5)<br>O presente trabalho teve como objetivo o desenvolvimento e teste de um protótipo de um programa computacional para simulação de plantas térmica e de potência, com os principais recursos de programas comerciais existentes, com baixo custo e com interface gráfica mais amigável. O referido programa foi denominado TPPS (abreviação de Thermal Power Plant Software), tendo sido desenvolvido na linguagem object pascal, utilizando a IDE do DELPHI e a biblioteca FLUIDPROP, na qual constam os componentes para cálculo das propriedades termodinâmicas envolvidas. Para tanto, inicialmente é apresentada uma breve descrição de alguns programas computacionais disponíveis no mercado que comumente são utilizados no meio acadêmico sendo que, dentre eles, foram escolhidos três (Cycle-Tempo, EES e IPSEpro) para efeito comparativo dos resultados das simulações com o programa desenvolvido, tendo como base duas plantas básicas, uma de geração e outra de cogeração de energia. Foi utilizada uma metodologia de simulação que consiste na avaliação dos processos, dos dados e do resultado dos cálculos obtidos. Para tanto, foram consideradas as hipóteses de regime permanente; variações das energias cinéticas e potencial são desprezadas em virtude de se desejar apenas um simples comparativo de valores das propriedades termodinâmicas calculadas; processos adiabáticos em todos os equipamentos que fazem parte dos ciclos, exceto para trocadores de calor, para os quais um parâmetro de eficiência define a quantidade de calor transferida ao meio. Os resultados obtidos foram bastante satisfatórios, tendo em vista que não houve discrepâncias entre os resultados obtidos por cada um dos programas, mostrando que a ferramenta desenvolvida, em sua primeira versão, atende os requisitos a que se propôs. Por fim, são apresentados resultados de uma simulação de uma planta de cogeração mais complexa, através do TPPS<br>This study aimed to develop and test a prototype of a computer program for simulation of thermal and power plants, with the main sources of existing commercial programs, with low cost and friendlier graphical interface. The program was denominated TPPS (abbreviation for Thermal Power Plant Software), and has been developed in Object Pascal language, using the Delphi IDE and FLUIDPROP library, which contains the components for calculating the thermodynamic properties involved. Therefore, initially presents a brief description of some computational programs available that are commonly utilized in the academic environment and among them, three were chosen (Cycle-Time, EES and IPSEpro) for comparison of the simulation results with the program developed, based on two basic plants, one of power generation and the other one of cogeneration. The simulation methodology consists of the evaluation of the processes, data and results obtained from the calculations. Therefore, it was considered the hypothesis of steady state and the variations of kinetic and potential energies were neglected because just a simple comparison of calculated values of thermodynamic properties; adiabatic processes in all devices of the cycles, except for heat exchangers, for which an efficiency parameter defines the amount of heat transferred to the environment. The results were quite satisfactory, considering that there were no discrepancies between the results obtained by each one of the programs, showing that the first version of the software developed meets the proposed requirements. Finally, results of simulation of a more complex cogeneration plant through the TPPS are presented
APA, Harvard, Vancouver, ISO, and other styles
14

Carniello, Andreia. "Instrumentação configuravel e incremental de programas." [s.n.], 2003. http://repositorio.unicamp.br/jspui/handle/REPOSIP/260328.

Full text
Abstract:
Orientadores : Mario Jino, Marcos Lordello Chaim<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação<br>Made available in DSpace on 2018-08-03T04:01:44Z (GMT). No. of bitstreams: 1 Carniello_Andreia_M.pdf: 318669 bytes, checksum: 79cdb4d9c99ea9254b12a1bda9ad3810 (MD5) Previous issue date: 2003<br>Mestrado
APA, Harvard, Vancouver, ISO, and other styles
15

Leitão, Junior Plinio de Sa. "Suporte ao teste de programas COBOL no ambiente POKE-TOOL." [s.n.], 1992. http://repositorio.unicamp.br/jspui/handle/REPOSIP/259620.

Full text
Abstract:
Orientadores: Mario Jino, Jose Carlos Maldonato<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica<br>Made available in DSpace on 2018-07-15T22:24:11Z (GMT). No. of bitstreams: 1 LeitaoJunior_PliniodeSa_M.pdf: 8961188 bytes, checksum: faab8704e2ed32132f9fc88097241a4f (MD5) Previous issue date: 1992<br>Resumo: Neste trabalho são discutidos os aspectos de aplicação de teste estrutural baseado em análise de fluxo de dados em programas COBOL. Com esse propósito, uma ferramenta denominada POKE-TOOL [MAL89,CHA91b], que apóia a utilização dos critérios Potenciais Usos [MAL88, MAL91], foi configurada para a linguagem COBOL. São abordados: a caracterização de unidade em programas COBOL; a abstração das estruturas de controle que compõem essa linguagem; o fluxo de dados presente em programas COBOL; e aspectos referentes à Instrumentação de programas COBOL. A discussão ressalta a não trivialidade dessas tarefas: por exemplo, a inexistência de estrutura de bloco na linguagem COBOL dificulta a atividade de Instrumentação de código fonte. Como produto principal desta dissertação, a versão operacional da POKE-TOOL para a linguagem COBOL constitui uma contribuição importante no sentido de apoiar o teste estrutural de unidades escritas em linguagem COBOL<br>Abstract: This work explores the issues involved in applying data flow based structural testing in COBOL programs; a tool named POKE-TOOL [MAL89,CHA91b] that supports Potential Uses Criteria appllcation [MAL88, MAL91] was configured for the COBOL programming language. The following topics are discussed: characterization of units in COBOL; abstraction of control flow structures; data flow in COBOL and program instrumentation. The presentation points out that these tasks are non-trivial: for example, the lack of block structuring in COBOL makes difficult the instrumentation of source code. As the main product of this thesis, the operational version of the POKE-TOOL for COBOL language constitute an important contribution to structural testing of units implemented in COBOL<br>Mestrado<br>Mestre em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
16

Muller, Junior Bruno. "Uma interface de comunicação para um ambiente de reestruturação de programas." [s.n.], 1991. http://repositorio.unicamp.br/jspui/handle/REPOSIP/275980.

Full text
Abstract:
Orientador : Jairo Panetta<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação<br>Made available in DSpace on 2018-07-14T01:56:28Z (GMT). No. of bitstreams: 1 MullerJunior_Bruno_M.pdf: 2086664 bytes, checksum: 7172d83771d9e983497bbefe376709a4 (MD5) Previous issue date: 1991<br>Resumo: Este trabalho apresenta uma interface de comunicação entre um ambiente de reestruturação de programas e o usuário. A interface contém um conjunto de componentes gráficos (widgets) que permitem ao usuário interagir amigavelmente com o seu programa. Estes componentes gráficos estão divididos em dois grupos, widgets tradicionais e widgets específicos ao ambiente em questão. Dentre os widgets específicos destaca-se o widget que desenha hierarquias. Grande parte deste trabalho concentra-se no algoritmo que efetua o desenho, apresentando melhoramentos ao algoritmo conhecido na literatura<br>Abstract: Not informed<br>Mestrado<br>Mestre em Ciência da Computação
APA, Harvard, Vancouver, ISO, and other styles
17

Fargasch, Natalia Viana. "Geração e vetorização de instruções de multiplicação e acumulação para processadores DSP SIMD." [s.n.], 2000. http://repositorio.unicamp.br/jspui/handle/REPOSIP/276501.

Full text
Abstract:
Orientador : Guido Costa Souza de Araujo<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação<br>Made available in DSpace on 2018-07-27T21:58:37Z (GMT). No. of bitstreams: 1 Fargasch_NataliaViana_M.pdf: 3686476 bytes, checksum: 309fba7a4a0c16dcd92d2ef76510d72b (MD5) Previous issue date: 2000<br>Resumo: Processadores que são projetados para executar aplicações específicas - em oposição a processadores de propósito geral- representam uma porcentagem cada vez maior do total de processadores vendidos anualmente. Esses processadores são utilizados em aparelhos eletrônicos como telefones celulares e câmeras digitais, dispositivos médicos de monitoração, modems, sistemas militares de radar, componentes eletrônicos de automóveis, set-top boxes, etc. As aplicações que são executadas por esses processadores tipicamente demandam um alto desempenho, combinado com reduzido tamanho de código e dissipação de energia. Esta dissertação aborda um dos problemas presentes durante a geração de código para uma classe desses processadores, os processadores de sinais digitais (DSPs): como o compilador pode utilizar as instruções especializadas desses processadores a fim de aumentar a densidade e melhorar o desempenho do código gerado. É proposto um procedimento que permite a detecçãoj geração de instruções de multiplicação e acumulação (muito comuns nas aplicações desses processadores). É ainda apresentado um método que permite explorar a possibilidade de execução de código em paralelo por duas ou mais unidades funcionais quando essas são capazes de operar simultaneamente sobre diferentes dados. Os métodos aqui apresentados permitem uma exploração bastante agressiva das instruções de multiplicação e acumulação, e se utilizam de algoritmos de análise de fluxo de dados e técnicas de reestruturação de laços. Não é conhecido nenhum trabalho que aborde esse problema da maneira como é apresentada neste<br>Abstract: Application specific processors - as opposed to general purpose processors - account for an ever increasing percentage of the processors sold each year. These processors are widely used in electronic devices such as cellular phones and digital cameras, medical monitoring devices, modems, military radar systems, electronic components in vehicles and set-top boxes, to name a few. The applications that usually run on these processors demand high performance, reduced code size and low power consuption. This thesis addresses one of the issues that arise when generating code for a class of these processors, the digital signal processors (DSPs): how the compiler can take advantage of their specialized instructions in order to reduce the size and improve performance of the code generated. A method is proposed that allows for the detectionj generation of multiply and accumulate instructions (typically present in these processors' applications). AIso presented in this work is a method that makes it possible to explore the possibility of running code in parallel on two or more functional units when these are capable of operating simultaneously on different data. The methods herein presented allow for an aggressive harnessing of multiply and accumulate instructions; to accomplish this goal they rely on data flow analysis algorithms and on loop restructuring techniques. No other work is known of that addresses this problem the way it is dealt with in this thesis<br>Mestrado<br>Mestre em Ciência da Computação
APA, Harvard, Vancouver, ISO, and other styles
18

Goulart, Leandro Jekimim [UNESP]. "Estudo de caso de uma extensão de middlewares de TV digital interativa para suporte a aplicações residentes não-nativas." Universidade Estadual Paulista (UNESP), 2009. http://hdl.handle.net/11449/98672.

Full text
Abstract:
Made available in DSpace on 2014-06-11T19:29:40Z (GMT). No. of bitstreams: 0 Previous issue date: 2009-07-27Bitstream added on 2014-06-13T20:19:46Z : No. of bitstreams: 1 goulart_lj_me_sjrp.pdf: 1065777 bytes, checksum: d51b5d665c42eb528918982e19434970 (MD5)<br>Ao longo dos últimos anos diversos sistemas de TV Digital foram desenvolvidos em todo o mundo, com destaque para o sistema de TV Digital norte-americano (ATSC), europeu (DVB), japonês (ISDB) e brasileiro (SBTVD). Todos estes sistemas diferem entre si em algum aspecto, mas todos apresentem muitas semelhanças conceituais e estruturais, o que permitiu a construção de plataformas de aplicações e serviços interativos comuns ou interoperáveis entre estes sistemas. Em todos estes sistemas, ambientes de aplicação foram desenvolvidos com o objetivo de oferecer serviços interativos através das redes e receptores de TV Digital. Diversos tipos de aplicações são definidos, com variações sobre o acoplamento ou não com o conteúdo audiovisual, a origem da aplicação (nativa ou do broadcast), entre outros aspectos. Este trabalho traz uma nova proposta, a de aplicações residentes não-nativas, um grupo de aplicações que adicionadas e removidas por usuários, executando no topo das APIs disponibilizadas pelo middleware, mas não associadas aos canais de TV Digital. É discutido então uma proposta para desenvolvimento destas extensões, o cenário escolhido para o estudo de caso, composto por implementação de referência de middleware (OpenMHP) e aplicação (Quizlet), o estudo de caso com os dados coletados, discussão e novas propostas. Os resultados são realizados com base na compatibilidade desta implementação de referência com as aplicações MHP existentes.<br>Not available.
APA, Harvard, Vancouver, ISO, and other styles
19

Centoducatte, Paulo Cesar 1957. "Compressão do programas usando arvores de expressão." [s.n.], 2000. http://repositorio.unicamp.br/jspui/handle/REPOSIP/276502.

Full text
Abstract:
Orientadores: Mario Lucio Cortes, Guido Costa Souza de Araujo<br>Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação<br>Made available in DSpace on 2018-07-25T20:10:08Z (GMT). No. of bitstreams: 1 Centoducatte_PauloCesar_D.pdf: 4355803 bytes, checksum: 020add3207bd3cd0ecf23cfa65c2abea (MD5) Previous issue date: 2000<br>Resumo: A redução no tamanho dos programas tem sido um fator importante no projeto de sistemas embarcados modernos voltados à produção em larga escala. Este problema tem direcionado grandes esforços em projetos de processadores que se utilizam de um conjunto de instruções com formato de tamanho reduzido (ex. ARM Thumb e MIPS16) ou que sejam capazes de executarem códigos comprimidos (ex. CCRP, CodePack, etc). Muitos dos trabalhos publicados na literatura têm sido realizados para arquiteturas RISC. Este trabalho propôe um algoritmo de compressão de programas e uma máquina de descompressão para arquiteturas RISC e DSP. O algoritmo utiliza como símbolos para a compressão as árvores de expressão do programa. Resultados experimentais, baseados em programas do SPECInt95 executando em processador MIPS R4000, mostraram uma razão de compressão média, para os programas, de 27,2% e uma razão de compressão de 60,7% quando a área ocupada pela máquina de descompressão é considerada. Resultados experimentais para programas típicos de aplicações para DSPs, executando em um processador TMS320C25, mostraram uma razão de compressão média, para os programas, de 28% e de 75% quando a área da máquina de descompressão é considerada. As máquinas de descompressão foram sintetizadas usando-se bibliotecas standard cell da AMS, para a tecnologia CMOS de 0,6 11m e 5 volts. Simulações da máquina de descompressão mostraram uma freqüência mínima de operação de 90MHz (R4000) e de 130MHz (TMS320C25)<br>Abstract: Reducing program size has become an important goal in the design of modern embedded systems targeted to mass production. This problem has driven a number of efforts aimed at designing processors with shorter instruction formats (e.g. ARM Thumb and MIPS16), or that are able to execute compressed code (e.g. CCRP, CodePack, etc). Much of the published work has been directed towards RISC architectures. This work proposes acode compression algorithm and a decompression engine for embedded RISC and DSP architectures. In the algorithm, the encoded symbols are the program expression trees. Experimental results, based on SPEClnt95 programs running on the MIPS R4000, reveal an average compression ratio of 27.2% to the programs and 60.7% if the area of the decompression engine is considered. Experimental results for typical DSP programs running on the TMS320C25 processor reveal an average compression ratio of 28% to the programs and 75% if the area of the decompression engine is considered. The decompression engines are synthesized using the AMS CMOS standard cell library and a 0.6 p,m 5 volts technology. Gate leveI simulation of the decompression engines reveals minimum operation frequencies of 90MHz (R4000) and 130MHz (TMS320C25)<br>Doutorado<br>Doutor em Ciência da Computação
APA, Harvard, Vancouver, ISO, and other styles
20

Dal'Bo, Robson Figueira. "SIMGRAF : um ambiente computacional para a simulação e validação de sistemas automatizados de produção utilizando o GRAFCET." [s.n.], 1994. http://repositorio.unicamp.br/jspui/handle/REPOSIP/265032.

Full text
Abstract:
Orientador: João Mauricio Rosario<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica<br>Made available in DSpace on 2018-07-19T21:04:57Z (GMT). No. of bitstreams: 1 Dal'Bo_RobsonFigueira_M.pdf: 14589416 bytes, checksum: dea2da4cf8408156ef9b00af0edbbf07 (MD5) Previous issue date: 1994<br>Resumo: Nesta dissertação é elaborado e implementado um sistema para a simulação e validação da lógica utilizada para a automatização dos sistemas de produção. O sistema é baseado no GRAFCET, sendo a interface de entrada e saída de dados, além do processamento feitos segundo esta metodologia. O sistema foi elaborado seguindo a programação orientada à objeto, permitindo modularização e futuras ampliações. Ao final do trabalho, serão realizados testes para a validação do SIMGRAF<br>Abstract: This dissertation presents a simulation and validation system for the logics will be used on production automation systems. The simulation system is based on GRAFCET, all input and output data interface, as the processing of data are done by this methodology. The system was created using the object oriented programming, that could modulate and amplify it in the future. At the end of working, some tests are implemented to validate the SIMGRAF<br>Mestrado<br>Projeto Mecanico<br>Mestre em Engenharia Mecânica
APA, Harvard, Vancouver, ISO, and other styles
21

Fonseca, Rubens Pontes da. "Suporte ao teste de programas FORTRAN-77 no ambiente POKE-TOOL." [s.n.], 1993. http://repositorio.unicamp.br/jspui/handle/REPOSIP/261470.

Full text
Abstract:
Orientadores : Jose Carlos Maldonado , Mario Jino<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica<br>Made available in DSpace on 2018-07-18T04:25:13Z (GMT). No. of bitstreams: 1 Fonseca_RubensPontesda_M.pdf: 9449914 bytes, checksum: 191429c3dcbecf5a913dde0cd47721d7 (MD5) Previous issue date: 1993<br>Resumo: As atividades de teste conduzidas manualmente são tão sujeitas a erros quanto as outras atividades do desenvolvimento de software. Critérios de teste estrutural baseados em análise de fluxo de dados têm sido propostos para o teste de unidade; não existe uma ferramenta de teste que apóie a aplicação desses critérios para programas implementados na linguagem FORTRAN-77. No DCA/FEE/UNICAMP foi desenvolvida uma ferramenta de teste que apóia a aplicação dos Critérios Potenciais Usos PU (uma famíl ia de critérios de fluxo de dados), denominada POKE-TOOL, configurável para diversas linguagens e que está operacional para as linguagens C e COBOL. Este trabalho apresenta a configuração da POKE-TOOL para a linguagem FORTRAN-77. A POKE-TOOL/versão FORTRAN-77 foi vai idada parcialmente com sua aplicação no teste de um conjunto de programas selecionados da literatura; os resultados dessa atividade são também apresentados e brevemente analisados neste trabalho<br>Abstract: Testing activities applied manually are as error-prone as other software development activities. Data-flow based structured testing criteria have been proposed for unit testing; there is no testing tool supporting these criteria for programs implemented in the FORTRAN-77. At DCA/FEE/UNICAMP a configurable testing tool, named POKE- TOOL., which supports the application of the Potential Uses Criteria (a data-flow based testing criteria family) has been developed and 15 operational for languages C and COBOL. This work presents the configuration of POKE-TOOL for FORTRAN-77. POKE-TOOL/version FORTRAN-77 has been partially validated using a program set selected from the Iiterature; the results of this activitv are also presented and briefly analysed in this work<br>Mestrado<br>Automação<br>Mestre em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
22

Baixo, André Oliveira Loureiro do 1986. "Mecanismo para execução especulativa de aplicações paralelizadas por técnicas DOPIPE usando replicação de estágios." [s.n.], 2012. http://repositorio.unicamp.br/jspui/handle/REPOSIP/275691.

Full text
Abstract:
Orientador: Guido Costa Souza de Araújo<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação<br>Made available in DSpace on 2018-08-21T04:52:37Z (GMT). No. of bitstreams: 1 Baixo_AndreOliveiraLoureirodo_M.pdf: 1756118 bytes, checksum: 00900e9463b55e1800da080419da53c7 (MD5) Previous issue date: 2012<br>Resumo: A utilização máxima dos núcleos de arquiteturas multi-processadas é fundamental para permitir uma utilização completa do paralelismo disponível em processadores modernos. A fim de obter desempenho escalável, técnicas de paralelização requerem um ajuste cuidadoso de: (a) mecanismo arquitetural para especulação; (b) ambiente de execução; e (c) transformações baseadas em software. Mecanismos de hardware e software já foram propostos para tratar esse problema. Estes mecanismos, ou requerem alterações profundas (e arriscadas) nos protocolos de coerência de cache, ou exibem uma baixa escalabilidade de desempenho para uma gama de aplicações. Trabalhos recentes em técnicas de paralelização baseadas em DOPIPE (como DSWP) sugerem que a combinação de versionamento de dados baseado em paginação com especulação em software pode resultar em bons ganhos de desempenho. Embora uma solução apenas em software pareça atrativa do ponto de vista da indústria, essa não utiliza todo o potencial da microarquitetura para detectar e explorar paralelismo. A adição de tags às caches para habilitar o versionamento de dados, conforme recentemente anunciado pela indústria, pode permitir uma melhor exploração de paralelismo no nível da microarquitetura. Neste trabalho, é apresentado um modelo de execução que permite tanto a especulação baseada em DOPIPE, como as técnicas de paralelização especulativas tradicionais. Este modelo é baseado em uma simples abordagem com tags de cache para o versionamento de dados, que interage naturalmente com protocolos de coerência de cache tradicionais, não necessitando que estes sejam alterados. Resultados experimentais, utilizando benchmarks SPEC e PARSEC, revelam um ganho de desempenho geométrico médio de 21.6× para nove programas sequenciais em uma máquina simulada de 24 núcleos, demonstrando uma melhora na escalabilidade quando comparada a uma abordagem apenas em software<br>Abstract: Maximal utilization of cores in multicore architectures is key to realize the potential performance available from modern microprocessors. In order to achieve scalable performance, parallelization techniques rely on carefully tunning speculative architecture support, runtime environment and software-based transformations. Hardware and software mechanisms have already been proposed to address this problem. They either require deep (and risky) changes on the existing hardware and cache coherence protocols, or exhibit poor performance scalability for a range of applications. Recent work on DOPIPE-based parallelization techniques (e.g. DSWP) has suggested that the combination of page-based data versioning with software speculation can result in good speed-ups. Although a softwareonly solution seems very attractive from an industry point-of-view, it does not enable the whole potential of the microarchitecture in detecting and exploiting parallelism. The addition of cache tags as an enabler for data versioning, as recently announced in the industry, could allow a better exploitation of parallelism at the microarchitecture level. In this paper we present an execution model that supports both DOPIPE-based speculation and traditional speculative parallelization techniques. It is based on a simple cache tagging approach for data versioning, which integrates smoothly with typical cache coherence protocols, and does not require any changes to them. Experimental results, using SPEC and PARSEC benchmarks, reveal a geometric mean speedup of 21.6x for nine sequential programs in a 24-core simulated CMP, while demonstrate improved scalability when compared to a software-only approach<br>Mestrado<br>Ciência da Computação<br>Mestre em Ciência da Computação
APA, Harvard, Vancouver, ISO, and other styles
23

Silva, Cláudio Eduardo Regis de Figueiredo e. "Propriedade intelectual de programa de computador desenvolvido para utilização na administração pública." reponame:Repositório Institucional da UFSC, 2013. https://repositorio.ufsc.br/xmlui/handle/123456789/122940.

Full text
Abstract:
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro de Ciências Jurídicas, Programa de Pós-Graduação em Direito, Florianópolis, 2013.<br>Made available in DSpace on 2014-08-06T17:34:50Z (GMT). No. of bitstreams: 1 324543.pdf: 1624497 bytes, checksum: 709561bb0de8fb3454502b861c80ab39 (MD5) Previous issue date: 2013<br>O conceito de propriedade tem-se modificado ao longo dos tempos, de acordo com a concepção em vigor na sociedade a que se dirige. A inovação tecnológica promovida pela revolução informacional vem a gerar transformações na noção de riqueza e no próprio conceito de propriedade. Hoje, as maiores riquezas são bens imateriais e não mais bens materiais. Dessa forma, é preciso que os conceitos jurídicos progridam na mesma direção já apontada há tempos pela economia. Além disso, a gestão da Administração Pública também procura dinamizar-se para dar conta das demandas sociais. A prestação da Justiça, cada vez mais cobrada com o amadurecimento da democracia e a consolidação dos direitos a partir do final do século XX, não se furta a esse movimento. Novas medidas são tomadas para modernizar o Poder Judiciário, e a informatização adquire papel de destaque por imprimir maior agilidade ao serviço, ao viabilizar a gestão do fluxo de processos, com a ampla coleta de dados, e possibilitar a realização de planejamento, com a avaliação dos resultados. Para isso, são necessários programas de computador cada vez mais sofisticados e customizados que atendam às finalidades da Justiça. O desenvolvimento de tais programas alcança ocorrer dentro da própria administração ou envolve terceiros, através de contratos celebrados com a administração pública. Esses contratos podem abranger a aplicação de novas ferramentas e a participação de novos atores, como governo, universidades, empreendedores e pesquisadores. Na França, a criação da Agência do Patrimônio Imaterial do Estado (APIE) mostra ser exequível cuidar-se dos ativos intangíveis da administração pública. No Brasil, é preciso viabilizar o aproveitamento econômico desses bens dominicais imateriais. Para que tal aconteça, necessita-se de uma regulamentação que ofereça estabilidade e segurança para que o poder público e a iniciativa privada possam unir seus esforços na promoção do desenvolvimento nacional.<br><br>Abstract : The concept of property has changed over time, according to the existing vision in the society to which it is addressed. The technological innovation promoted by the information revolution causes changes to the notion of wealth and the very concept of property. Today, the greatest assets are intangible property and no longer material goods. Thus, it is necessary that the legal concepts progress towards the same direction already indicated for quite some time by the economy. Furthermore, the management of public administration also seeks to become more dynamic to meet social demands. The provision of justice, demanded ever more with the maturing of democracy and the consolidation of rights from the end of the 20th century on, does not shy away from this movement. New measures are taken to modernize the Judiciary, with computerization taking a prominent role for speeding up the service, by facilitating case flow management, with extensive data collection, and enabling the achievement of planning with the evaluation of results. To achieve this, increasingly sophisticated and customized software are required to serve the purposes of justice. The development of such programs occurs within the administration itself or involves third parties through contracts entered into with the public administration. These contracts may include the application of new tools and the participation of new actors, such as the government, universities, entrepreneurs and researchers. In France, the creation of the Intangible Heritage of the State Agency (APIE) demonstrates that taking care of intangible assets of the public administration is feasible. In Brazil, it is necessary to enable the economic benefits of these proprietary intangible assets. For this to happen, a legislation that offers stability and security is pending, so that the public and private sectors may unite their efforts in promoting national development.
APA, Harvard, Vancouver, ISO, and other styles
24

Grégio, André Ricardo Abed. "Malware Behavior = Comportamento de programas maliciosos." [s.n.], 2012. http://repositorio.unicamp.br/jspui/handle/REPOSIP/261000.

Full text
Abstract:
Orientadores: Mario Jino, Paulo Licio de Geus<br>Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação<br>Made available in DSpace on 2018-08-21T16:40:48Z (GMT). No. of bitstreams: 1 Gregio_AndreRicardoAbed_D.pdf: 5158672 bytes, checksum: 12a24da95543bac78fd3f047f7415314 (MD5) Previous issue date: 2012<br>Resumo: Ataques envolvendo programas maliciosos (malware) s~ao a grande ameaça atual _a segurança de sistemas. Assim, a motivação desta tese _e estudar o comportamento de malware e como este pode ser utilizado para fins de defesa. O principal mecanismo utilizado para defesa contra malware _e o antivírus (AV). Embora seu propósito seja detectar (e remover) programas maliciosos de máquinas infectadas, os resultados desta detecção provêem, para usuários e analistas, informações insuficientes sobre o processo de infecção realizado pelo malware. Além disso, não há um padrão de esquema de nomenclatura para atribuir, de maneira consistente, nomes de identificação para exemplares de malware detectados, tornando difícil a sua classificação. De modo a prover um esquema de nomenclatura para malware e melhorar a qualidade dos resultados produzidos por sistemas de análise dinâmica de malware, propõe-se, nesta tese, uma taxonomia de malware com base nos comportamentos potencialmente perigosos observados durante vários anos de análise de exemplares encontrados em campo. A meta principal desta taxonomia _e ser clara, de simples manutenção e extensão, e englobar tipos gerais de malware (worms, bots, spyware). A taxonomia proposta introduz quatro classes e seus respectivos comportamentos de alto nível, os quais representam atividades potencialmente perigosas. Para avaliá-la, foram utilizados mais de 12 mil exemplares únicos de malware pertencentes a diferentes classes (atribuídas por antivírus). Outras contribuições provenientes desta tese incluem um breve histórico dos programas maliciosos e um levantamento das taxonomias que tratam de tipos específicos de malware; o desenvolvimento de um sistema de análise dinâmica para extrair pefis comportamentais de malware; a especializa- _c~ao da taxonomia para lidar com exemplares de malware que roubam informações (stealers), conhecidos como bankers, a implementação de ferramentas de visualização para interagir com traços de execução de malware e, finalmente, a introdução de uma técnica de agrupamento baseada nos valores escritos por malware na memória e nos registradores<br>Abstract: Attacks involving malicious software (malware) are the major current threats to systems security. The motivation behind this thesis is to study malware behavior with that purpose. The main mechanism used for defending against malware is the antivirus (AV) tool. Although the purpose of an AV is to detect (and remove) malicious programs from infected machines, this detection usually provides insufficient information for users and analysts regarding the malware infection process. Furthermore, there is no standard naming scheme for consistently labeling detected malware, making the malware classification process harder. To provide a meaningful naming scheme, as well as to improve the quality of results produced by dynamic analysis systems, we propose a malware taxonomy based on potentially dangerous behaviors observed during several years of analysis of malware found in the wild. The main goal of the taxonomy is, in addition to being simple to understand, extend and maintain, to embrace general types of malware (e.g., worms, bots, spyware). Our behavior-centric malware taxonomy introduces four classes and their respective high-level behaviors that represent potentially dangerous activities. We applied our taxonomy to more than 12 thousand unique malware samples from different classes (assigned by AV scanners) to show that it is useful to better understand malware infections and to aid in malware-related incident response procedures. Other contributions of our work are: a brief history of malware and a survey of taxonomies that address specific malware types; a dynamic analysis system to extract behavioral profiles from malware; specialization of our taxonomy to handle information stealers known as bankers; proposal of visualization tools to interact with malware execution traces and, finally, a clustering technique based on values that malware writes into memory or registers<br>Doutorado<br>Engenharia de Computação<br>Doutor em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
25

Buriol, Luciana Salete. "Algoritmo memetico para o problema do caixeiro viajante assimetrico como parte de um framework para algoritmos evolutivos." [s.n.], 2000. http://repositorio.unicamp.br/jspui/handle/REPOSIP/261832.

Full text
Abstract:
Orientador: Paulo Morelato França<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação<br>Made available in DSpace on 2018-08-12T02:08:09Z (GMT). No. of bitstreams: 1 Buriol_LucianaSalete_M.pdf: 8595148 bytes, checksum: 8048854c00a24631aefeb449304ce2bd (MD5) Previous issue date: 2000<br>Resumo: Dentre a gama de técnicas heurísticas e exatas existentes para a resolução de problemas combinatórios, os algoritmos populacionais genéticos e meméticos têm se destacado devido a sua boa performance. Em especial, os algoritmos meméticos podem ser considerados atualmente como uma das técnicas melhores sucedidas para a resolução de vários problemas combinatórios, dentre eles, o problema do caixeiro viajante. Nesta dissertação será apresentado um algoritmo memético aplicado ao problema do caixeiro viajante assimétrico, com a proposta de uma nova busca local: Recursive Arc Insertion. Os resultados computacionais considerando as 27 instâncias assimétricas da TSPLIB são apresentados, analisados e comparados com resultados obtidos por outros métodos propostos para o problema. O mesmo algoritmo é também aplicado a 32 outras instâncias assimétricas e a 30 instâncias reduzidas do problema de ciclos hamiltonianos não direcionados. Um framework para algoritmos evolutivos é apresentado, já incluindo o algoritmo memético implementado e a redução de instâncias do problema de ciclos hamiltonianos não direcionados para o problema do caixeiro viajante simétrico. Além disso, dois geradores portáveis de instâncias com solução ótima conhecida são descritos: um para o problema do caixeiro viajante assimétrico e outro para o problema de ciclos hamiltonianos<br>Abstract: Among the range of heuristic and exact techniques for solving combinatorial problems, the genetic and memetic populational algorithms play an important role due to their good performance. In special, the memetic algorithms can be considered current1y as one of the best techniques to solve several combinatorial problems, especially, the traveling salesman problem. In this dissertation a memetic algorithm applied to the asymmetric traveling salesman problem is developed, and a new local search is proposed: Recursive Are Insertion. The computational results considering the 27 asymmetric instances from TSPLIB are presented, analyzed and compared with results attained by other methods recent1y published. The same algorithm is also applied to 32 other asymmetric instances and to 30 reduced instances from undirect hamiltonian cycle problem. A framework for evolutionary algorithms is also presented, including the memetic algorithm implemented and the codes which performs a reduction from the undirect hamiltonian cycle problem to the symmetric traveling salesman problem. Besides, two portable instances generators with a known optimal solution are described: one for asymmetric traveling salesman problem and other for hamiltonian cycle problem<br>Mestrado<br>Automação<br>Mestre em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
26

Gomes, Carlos Adriano Santos. "AvaliaÃÃo do Programa Um computador por Aluno (PROUCA) sob a Ãtica do modelo CIPP." Universidade Federal do CearÃ, 2015. http://www.teses.ufc.br/tde_busca/arquivo.php?codArquivo=14923.

Full text
Abstract:
nÃo hÃ<br>O Programa Um Computador por Aluno (PROUCA) foi introduzido em escolas pÃblicas brasileiras, por meio de uma articulaÃÃo entre os governos federal, estaduais e municipais, capitaneada pelo MinistÃrio da EducaÃÃo e com participaÃÃo de secretarias de educaÃÃo, universidades, nÃcleos de tecnologia educacional, dentre outros, e trouxe consigo a inovaÃÃo do uso individual de laptops de baixo custo por estudantes do ensino fundamental. A incorporaÃÃo de tecnologias digitais na sala de aula, intenciona alterar o status da escola pÃblica brasileira que à tradicionalmente analÃgica e tem dificuldades em atender as necessidades de uma sociedade cada vez mais digital. Em sua fase pre-piloto, entÃo denominado de âProjeto UCAâ, a incorporaÃÃo dos laptops foi testada em 2007, em cinco instituiÃÃes. Em 2010, transformado em programa, por forÃa da Lei 12.249, o PROUCA foi implantado em trezentas escolas, espalhadas por todos os estados do paÃs. Nesse Ãnterim, o municÃpio de Fortaleza foi contemplado em duas unidades: a Escola Municipal de Ensino Infantil e Fundamental Monteiro Lobato, e a Escola de Ensino Fundamental e MÃdio Estado do ParanÃ, pertencente à rede estadual. A partir da necessidade de investigaÃÃo dos efeitos provocados pelo advento do programa, delineou-se como objetivo geral desta investigaÃÃo em avaliar os resultados do Programa Um Computador Por Aluno (PROUCA), no municÃpio de Fortaleza, a partir de uma abordagem baseada no modelo CIPP, proposto por Daniel Stufflebeam. Ao seu tempo, foram delineados quatro objetivos especÃficos, a saber: identificar os principais interessados, recursos materiais e humanos disponÃveis e potenciais problemas do programa nas escolas; analisar a estratÃgia proposta pelo programa, em atenÃÃo Ãs necessidades dos beneficiÃrios, a partir de referÃncia a outros programas, pesquisas e estratÃgias alternativas, bem como a sua suficiÃncia orÃamentÃria; investigar os efeitos do processo de operacionalizaÃÃo do programa nas escolas; e analisar de que modo o programa serviu aos seus beneficiÃrios, com enfoque nos resultados positivos e negativos nas escolas. O percurso metodolÃgico constituiu-se a partir de uma abordagem indutiva, com suporte quantitativo (estatÃstica descritiva e teste de hipÃteses) e qualitativo (anÃlise de conteÃdo) e seu campo de aÃÃo restringiu-se ao estudo de caso mÃltiplo nas duas instituiÃÃes de ensino citadas. A estratÃgia de coleta de dados se deu por meio de pesquisa documental e de campo, com utilizaÃÃo dos instrumentos de observaÃÃo direta, questionÃrio, entrevistas e anÃlise documental. A avaliaÃÃo revelou que ambas as escolas tiveram reaÃÃes diferentes diante de situaÃÃes diferentes, ambas vivenciaram situaÃÃes que atrapalharam o desenvolvimento do PROUCA, entretanto, enquanto o cenÃrio de adversidade estimulou o desenvolvimento de soluÃÃes alternativas em uma delas, e consequentemente obteve melhoria em indicadores educacionais, na outra predominou um sentimento de frustraÃÃo e abandono, que levou à reduÃÃo das atividades do programa, e consequentemente dos seus efeitos.<br>The program A Computer for each Student / Um Computador por Aluno (PROUCA), was introduced in brazilian public schools, as an articulation means between the federal, state, and municipal governments, sustained by the Education Ministry, and with the participation of the education secretaries, universities, educational technology core, among others, and brought with itself the innovation of the individual use of low cost laptops by elementary school students. The incorporation of digital technology inside classes intends to alter the brazilian public schools status, which is traditionally analog and has difficulties in attending the needs of a much more digital society. In the pre-pilot fase, called âProjeto UCAâ, the incorporation of laptops was tested in 2007, in five institutions. In 2010, transformed in a program, by the Law 12.249, the PROUCA was inserted in three hundred schools, spread all over the country. At that time, the city of Fortaleza was contemplated with two units, which are: Escola de Ensino Infantil e Fundamental Monteiro Lobato, and the Escola de Ensino Fundamental e MÃdio Estado do ParanÃ, that belongs to the state schools network. From the necessity of investigating the effects made by the program, it was established that the main goal of this investigation was to evaluate the results of the program Um Computador por Aluno (PROUCA), at the city of Fortaleza, and in an approach based on the CIPP model, proposed by Daniel Stufflebeam. By that time, it was planned some specific goals, such as: identify the main interested people; material and human resources availables and potential problems of the schools programs; analyse the strategy proposed by the program, paying attention to the beneficiaries needs, from others programs references, searches and possible alternatives strategies, such as its budget sufficiency; investigate the effects of the operationalizing process of the schools program; and analysing in which way the program fitted the beneficiaries, focused on the positives and negatives results at the schools. The methodological route was constituted by an inductive approach, with quantitative (descriptive statistics and hypotheses tests) and qualitative (content analysis) and the action field restrained to the study of the multiple case in two teaching institutions quoted. The strategy of data collection was chosen by documental and field researches, using instruments of the direct observation, questionnaires, interviews and documental analysis. The evaluation revealed that both schools had different reactions faced to distant situations, both lived situations that disrupted the PROUCA development, however, while the adversity scenario stimulated the development of alternative solutions in one of them, and consequentially obtained improvements in educational indicators, in the other prevailed a feeling of frustration and abandonment, which lead to reduction of the program activities, and consequentially, its effects.
APA, Harvard, Vancouver, ISO, and other styles
27

Chaim, Marcos Lordello. "Poke-tool : uma ferramenta para suporte ao teste estrutural de programas baseado em analise de fluxo de dados." [s.n.], 1991. http://repositorio.unicamp.br/jspui/handle/REPOSIP/261537.

Full text
Abstract:
Orientador : Mario Jino<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica<br>Made available in DSpace on 2018-07-13T23:48:33Z (GMT). No. of bitstreams: 1 Chaim_MarcosLordello_M.pdf: 9685376 bytes, checksum: 62dd048f141f0aa396783b07b16c711e (MD5) Previous issue date: 1991<br>Resumo: Os principais aspectos da especificação e implementação de uma ferramenta multilinguagem para suporte ao teste estrutural de programas baseado em fluxo de dados são apresentados. Na versão atual a ferramenta, denominada PORETOOL, suporta o teste de programas escritos na linguagem C e automatiza a aplicação dos critérios Potenciais Usos (PU) [MAL88a, MAL88b]. Os pontos mais relevantes e os principais algoritmos da implementaçâo são apresentados em detalhe. São também descritos os passos do procedimento a ser realizado por um usuário configurador para gerar configurações desta ferramenta para outras linguagens procedurais. Os aspectos funcionais e de controle de atividades da POKE- TOOL são ilustrados através de uma sessão de trabalho completa, que mostra a aplicação da ferramenta em um programa; o programa exemplo foi extraído de um conjunto de programas utilizado para conduzir um "benchmark" dos critérios Potenciais Usos<br>Abstract: The main aspects of the specification and implementation of a multilanguage tool for structural data flow testing of programs are presented. In the present version, the tool, named POKE- TOOL, supports the test of programs written in C; it automates the application of the Potential Uses Criteria [MAL88a, MAL88b]. The most relevant points and main algorithms of the implementation are presented in detail. We also describe the steps of the procedure to be carried out by a user-configurer to generate configurations of the tool for other procedural languages. Functional and activities control aspects of POKE- TOOL are ilustrated through a complete work session, showing the application of the tool on a program; the examp]e program was extracted from a set of programs used to conduct a benchmark of the Potential Uses criteria<br>Mestrado<br>Mestre em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
28

Ternes, Sonia. "Medidas de complexidade para avaliação de mudanças em sistemas de software." [s.n.], 1992. http://repositorio.unicamp.br/jspui/handle/REPOSIP/261540.

Full text
Abstract:
Orientadores: Mario Jino, Fuad Gattaz Sobrinho<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica<br>Made available in DSpace on 2018-07-24T11:53:46Z (GMT). No. of bitstreams: 1 Ternes_Sonia_M.pdf: 4855023 bytes, checksum: ff6dd907e8bb92d70f2977be4e324c02 (MD5) Previous issue date: 1992<br>Resumo: A atividade de evolução de software requer medidas que indiquem o esforço a ser aplicado em uma mudança qualquer no sistema de software. As Matrizes de Probabilidades de Mudanças (Pf e Pc) e as Matrizes de Esforços de Mudanças (Ef e Ec) enfocam a interface entre os módulos que compõem o sistema de software, possibilitando a análise quantitativa dos efeitos colaterais produzidos. Dessas matrizes são obtidas várias medidas de complexidade nos escopos modular e do software que podem indicar, por exemplo, os módulos problemáticos para a atividade de evolução do software. Baseado nessas medidas foram propostos critérios objetivos que podem indicar a necessidade de particíonamento de módulos, redesenho do sistema de software e reimplementacão de módulos ou até mesmo de todo o sistema de software. Esses critérios podem ser utilizados numa metodologia de gerência de um ambiente de desenvolvimento e evolução de software, como apresentado neste trabalho. Finalmente, idéias básicas de um processo de particionamento de software são propostas, tendo como objetivo discutir o processo de obtenção das medidas de complexidade sobre partições de software e reduzir o esforço computacional da atividade de obtenção de métricas. Ferramentas foram produzidas para automatizar o processo de obtenção dessas medidas e critérios<br>Abstract: Software evolution activities require measures for the prediction of the amount of effort to be applied in any software system change. Probability Matrices (Pf and Pc) and Effort Matrices (Ef and Ec) focus on the interface between modules in the software system and allow a quantitative analysis of the side effects produced by a change. From these matrices, complexity measures are obtained in the modules and system scopes which may indicate, for example, the most troublesome modules for software evolution activities. Criteria based on those measures were proposed to indicate the need of module partitioning, software system redesign and module or software system reimplementation. These criteria can be used in a management methodology of software development and evolution environment which is presented in this work. Finally, basic ideas of a software partition process are proposed with the purpose of examining the process of extracting complexity measures on software partitions and reducing the computational effort in the measures extraction activity. Tools were produced for automation of the process to obtain these measures and criteria<br>Mestrado<br>Mestre em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
29

Cavalcante, Milene Dantas. "A patenteabilidade das invenções que envolvem programas de computador nos Estados Unidos, União Européia e Brasil." Florianópolis, SC, 2007. http://repositorio.ufsc.br/xmlui/handle/123456789/90680.

Full text
Abstract:
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Ciências Jurídicas. Programa de Pós-Graduação em Direito<br>Made available in DSpace on 2012-10-23T13:56:23Z (GMT). No. of bitstreams: 1 241120.pdf: 734240 bytes, checksum: 247c03fe2dd01ba86b0219d42999fab9 (MD5)<br>A presente dissertação trata da patenteabilidade das invenções que envolvem programas de computador nos Estados Unidos, na União Européia e no Brasil. Tem-se como objetivo analisar se a patenteabilidade das invenções que envolvem programas de computador implica uma extensão do regime de proteção jurídica dos mesmos. Para tanto, utiliza-se como fonte de pesquisa as legislações nacionais e internacionais pertinentes ao assunto, doutrinadores brasileiros e estrangeiros, jurisprudências e as decisões dos institutos nacionais de patentes. O método utilizado é o dedutivo. Como resultado da presente pesquisa, chega-se à conclusão de que a patenteabilidade das invenções que envolvem programas de computador não implica uma extensão do regime jurídico dos programas de computador, uma vez que está expressamente previsto na legislação dos Estados Unidos, da União Européia e do Brasil que os programas de computador são protegidos como obras literárias pela legislação de direitos autorais, bem como os programas de computador como tais estão expressamente excluídos pela legislação patentária. Portanto, o direito industrial se aplica às invenções que envolvem programas de computador e não ao programa de computador em si.
APA, Harvard, Vancouver, ISO, and other styles
30

Tosin, Carlos Eduardo Gusso. "Uma infra-estrutura reflexiva para aplicações dependentes de contexto / Carlos Eduardo Gusso Tosin ; orientador, Luiz Lima Jr." reponame:Biblioteca Digital de Teses e Dissertações da PUC_PR, 2009. http://www.biblioteca.pucpr.br/tede/tde_busca/arquivo.php?codArquivo=1423.

Full text
Abstract:
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2009<br>Bibliografia: f. 87-89<br>Aplicações dependentes de contexto utilizam informações do ambiente que as cercam para adaptarem o seu comportamento. Este trabalho propõe um infra-estrutura reflexiva, com baixo acoplamento e orientada a eventos, chamada CxFramework, para auxiliar no des<br>Context-aware applications use information from their surrounding environment to adapt their behavior. This paper proposes a reflexive, loose-coupled, event-based infrastructure named CxFramework to aid the development of such complex applications. CxFram
APA, Harvard, Vancouver, ISO, and other styles
31

Cruzes, Daniela Soares. "Visualização de informações para suporte ao teste e depuração de programas." [s.n.], 1999. http://repositorio.unicamp.br/jspui/handle/REPOSIP/261815.

Full text
Abstract:
Orientador: Mario Jino<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação<br>Made available in DSpace on 2018-07-24T13:27:02Z (GMT). No. of bitstreams: 1 Cruzes_DanielaSoares_M.pdf: 7834363 bytes, checksum: cb27abf4f5223c8b710e659cad7de602 (MD5) Previous issue date: 1999<br>Resumo: A depuração é uma atividade do desenvolvimento de software que tem como objetivo encontrar os defeitos de um programa, detectados durante o teste. Poucas ferramentas atualmente exploram as informações que são fornecidas pelo teste para auxiliar a depuração. Esta dissertação tem como motivação principal acoplar informações geradas durante o teste à atividade de depuração, de forma a auxiliar na formulação de hipóteses sobre as localizações de defeitos. Este trabalho envolveu também o estudo das atividades de teste e depuração no intuito de determinar as informações que os programadores e testadores buscam em cada etapa. Estas informações foram utilizadas para aprimorar duas ferramentas já existentes, a Poke-Tool e a ViewGraph, fornecendo suporte à geração e a visualização das informações requeridas para auxilio à depuração e teste de programas, através de uma nova ferramenta, denominada View. ...Observação: O resumo, na íntegra, poderá ser visualizado no texto completo da tese digital<br>Abstract: Debugging is the activity of the software development that has the goal of locating defects of a program, detected through failures occurring during software testing. Few tools currently take advantage of information supplied by testing to assist in debugging tasks. This thesis has as main motivation the use of information generated from testing in debugging activities, to help in providing hypotheses about defects location. This work also involved the study of tasks of testing and debugging to determine the information programmersand testers seek in each stage.This informationhas been used to improve two existing tools, Poke-Tool and ViewGraph, providing support to the generation and visualization of information required to assist debugging and testing of programs through a new tool, called View. ...Note: The complete abstract is available with the full electronic digital thesis or dissertations<br>Mestrado<br>Automação<br>Mestre em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
32

Sousa, Antonio Heronaldo de. "ONAGRO : um ambiente grafico para desenvolvimento de software para microcontroladores." [s.n.], 1995. http://repositorio.unicamp.br/jspui/handle/REPOSIP/258986.

Full text
Abstract:
Orientador: Elnathan Chagas Ferreira<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica<br>Made available in DSpace on 2018-07-20T19:53:26Z (GMT). No. of bitstreams: 1 Sousa_AntonioHeronaldode_M.pdf: 6755137 bytes, checksum: c0c534a5d717e88561ed87d82d76898f (MD5) Previous issue date: 1995<br>Resumo: o ONAGROéum sistema tradutor que reconhece uma linguagem gráfica de descrição de algoritmos e possibilita a geração de código em Assembly para microcontroladores. Além do tradutor propriamente dito, ele incorpora um editor gráfico para a entrada do programa-fonte, que se assemelha a um algoritmo descrito em linguagem de fluxogramas. Ele também possui um editor de identificadores que permite a descrição dos símbolos identificadores usados no programa. O sistema ONAGRO opera em ambiente Microsoft Windows, oferecendo uma interface amigável com o usuário. Esta interface baseia-se em estruturas gráficas: ícones, janelas, menus e diálogos que o usuário pode ativar através da utilização do mal/se ou, se preferir, do próprio teclado. O sistema foi desenvolvido para trabalhar em computadores compatíveis com o IBM-PC AT e foi implementado em linguagem Visual C++, usando metodologia orientada ao objeto. Diferentemente dos compiladores tradicionais, ele interage com o usuário através de diálogos logo na entrada das instruções, a fim de diminuir erros posteriores de compilação. Além disso, o ONAGRO permite uma maior rapidez na entrada do programa, pois ele é orientado a ícones e não a textos, como nas linguagens convencionais. A programação em ONAGRO é feita com um elevado nível de abstração dos detalhes de hardware. Entretanto, há mecanismos disponíveis para total controle das características fisicas das aplicações. Os testes realizados mostraram que o ambiente proposto é bastante intuitivo e amigável. A documentação dos programas é feita em tempo-real, visto que o próprio programa-fonte se constitui em uma ótima ferramenta de inspeção. Outro aspecto importante, observado nos testes, foi que o código gerado se mostrou relativamente compacto<br>Abstract: ONAGRO is a translation system that recognizes an algorithm description graphical language and allows the code generation in Assembly for microcontrollers. Besides, it incorporates a graphic editor for the source-program input that is similar to an algorithm described in flowchart language. ONAGRO has also an identifier editor that allows the identifier symboldescription used on the programo ONAGRO is a fully Microsoft Windows compatible software offering a friendly interface with user. This interface is based on graphical structures: icons, windows, menus and dialogues that the user might activate through the mouse or, if he wishes, through the keyboard. ONAGRO was developed to work on IBM-PC AT compatible computers. It was implementedin Visual C++ language by using object oriented methodology. Differently from the traditional compilers, it interacts with the user through the dialogues immediately in the instructions input to reduce later compiler errors. Besides, ONAGRO allows a major quickness in the program input since it is icon oriented and not text oriented like in the conventional languages. The ONAGRO programming is made with high level abstraction of the hardware details. However, there are available mechanisms for full control of physical characteristics applications. The accomplished tests showed that the proposed environment is very intuitive and friendly. The program documentation is made in real-time since the proper source-program is a good inspection too1. Another important aspect observed in the tests was that the generated code proved to be relatively compact<br>Mestrado<br>Mestre em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
33

Allan, Valéria Falcão [UNESP]. "A contribuição de uma ferramenta na realização de uma experiência em educação virtual para o ensino fundamental com algumas escolas locais." Universidade Estadual Paulista (UNESP), 2011. http://hdl.handle.net/11449/95730.

Full text
Abstract:
Made available in DSpace on 2014-06-11T19:27:53Z (GMT). No. of bitstreams: 0 Previous issue date: 2011-12-14Bitstream added on 2014-06-13T20:36:27Z : No. of bitstreams: 1 allan_vf_me_rcla.pdf: 1456150 bytes, checksum: b00afb7e452029961cef70361f0679fb (MD5)<br>O Sabixão é um programa on line que foi desenvolvido especialmente para auxiliar os professores nas atividades realizadas nos laboratórios de informática. Por ser uma ferramenta on line, o programa procura contribuir para minimizar a cobrança social pela entrada e aplicação da tecnologia no meio educacional. A partir do momento da sua criação, a tecnologia gera uma necessidade e toda a sociedade passa a pensar que o invento é necessário e dessa maneira ele passa a ser realmente necessário. Atualmente o convívio com a área da tecnologia e a área da educação, é mais do que um desafio, pois, impõe-se como necessidade de compreensão e ação do educador do mundo moderno. É necessário entender a tecnologia como aplicação de teorias, métodos e processos científicos às técnicas, sendo que a tecnologia como aplicação científica é característica da sociedade moderna e é um saber integrante de nossa cultura. O Sabixão é criado neste contexto onde procura atender as necessidades modernas da era do conhecimento e de estar atualizado com as necessidades de interação da tecnologia com os processos educacionais, ou seja, ao mesmo tempo em que ele se apresenta de maneira tradicional no formato de um “quiz” (jogo de perguntas e respostas), ele procura atender as exigencias do mundo conteporaneo para ser facilmente acessado por qualquer aparelho (gadget eletronico) seja fixo ou movel como tablets, celulares, e computadores. Além de estar atualizado com todos os navegadores que operam atualmente e os principais sistemas operacionais conhecidos (Windows, Mac Os, IOS, Linux e Android), acompanhando assim as tendências sociais e econômicas, quanto as inovações do mercado tecnológico<br>Sabixão is an on-line application designed specifically to aid school teachers with activities performed within the informatics laboratory. As an on line tool, the application seeks to minimize the social pressure upon schools for entry and adoption of technologies in the education environment. Since the moment of its inception, technology creates a need were society starts believing that invention is a necessity and from there on it really becomes necessary. Today, the coexistence between the areas of technology and education is more of a challenge, since there is a need on behalf of educators to understand and take action. It is necessary to understand technology as the application of theories, methods, techniques and scientific processes, and being technology a scientific application it is a characteristic of modern society and the knowledge that belongs to our culture. Sabixão was created within this context where it seeks to satisfy modern needs in the era of knowledge and up to date with the need for educational processes to interact with technology. In other words at the same time it presents itself in a traditional manner in the form of a quiz (game of questions and answers), it seeks to satisfy the needs of a contemporary world to be readily accessible from any device (electronic gadget) whether fixed or mobile like tablets, smart-phones and computers. In addition to be functional within all navigators under the most available operating systems (Windows, Mac Os, IOS, Linux and Android), it follows the social and economic tendencies when it come to market innovation
APA, Harvard, Vancouver, ISO, and other styles
34

Galvan, Rodrigo. "Utilizando algoritmos de busca meta-heurística para estabelecer sequências de teste de integração para programas orientados a aspectos." reponame:Repositório Institucional da UFPR, 2011. http://hdl.handle.net/1884/26071.

Full text
Abstract:
Resumo: O uso de novos paradigmas, tais como os de orientação a objetos e a aspectos, trouxe novos desafios para o teste de software, atividade considerada fundamental na maioria das organizações de software. Estes desafios têm sido tema de pesquisa em diferentes trabalhos da literatura. No teste de integração de programas orientados a aspectos, similarmente ao teste de programas orientados a objetos, um problema que se destaca é o de estabelecer uma ordem de integração e teste para classes e aspectos que implique em um custo mínimo de criação de stubs. Algumas estratégias para este problema foram investigadas considerando um grafo específico para o contexto de programas orientados a aspectos que representa as relações de dependência entre classes e aspectos. Quando existem ciclos de dependência em tais grafos, o problema não é trivial e muitas estratégias levam a geração de soluções sub-ótimas. Outra desvantagem é que soluções baseadas em grafos geralmente não permitem o uso de diferentes medidas e fatores que podem influenciar no processo de criação de stubs tais como número de atributos, número de métodos, etc. Para reduzir estas limitações, este trabalho explora uma nova estratégia baseada em algoritmos de busca meta-heurísticos. Diferentes algoritmos de busca são investigados e comparados, além de diferentes funções objetivo que permitem lidar com objetivos múltiplos baseadas em agregação de funções e conceitos de dominância de Pareto. Os resultados obtidos nos experimentos mostram que os algoritmos introduzidos apresentam soluções com menor custo que as estratégias tradicionais.
APA, Harvard, Vancouver, ISO, and other styles
35

Ferreira, Rodrigo Augusto Barbato. "Uma implementação distribuida da Maquina Virtual JAVA visando o compartilhametno do compilador "just-In-Time"." [s.n.], 2001. http://repositorio.unicamp.br/jspui/handle/REPOSIP/276432.

Full text
Abstract:
Orientador: Guido Costa Souza de Araujo<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação<br>Made available in DSpace on 2018-07-27T17:17:44Z (GMT). No. of bitstreams: 1 Ferreira_RodrigoAugustoBarbato_M.pdf: 7083497 bytes, checksum: e0954b25f044d75d0166d511f5bbe192 (MD5) Previous issue date: 2001<br>Resumo: A compilação Just-In- Time (JIT) é uma técnica amplamente utilizada no aperfeiçoamento do desempenho da Máquina Virtual Java (JVM, do inglês Java Virtual Machine). Con­tudo, o tempo gasto internamente pelo compilador JIT degrada, em muitos casos, o tempo de execução das aplicações. Algumas técnicas têm sido usadas com o objetivo de diminuir o impacto negativo do JIT sobre a execução, ainda sim preservando a sua eficácia. Entretanto, sempre haverá uma relação inversa entre o tempo gasto pelo compilador JIT e o tempo de execução do código objeto por ele produzido. Segundo nossa concepção, uma Máquina Virtual Java que visa usuários finais executa o mesmo código a maior parte do seu tempo. Os usuários sempre utilizam os mesmos aplicativos, os quais são tipicamente compostos pelo mesmo conjunto de classes. Por outro lado, em grandes companhias, dezenas ou até mesmo centenas de empregados compartilham a mesma aplicação ou pa­cote de aplicações. Usualmente, eles estão conectados a uma mesma Intranet, rápida e segura. Neste cenário, o esforço do JIT por usuário é repetitivo e bem maior que o estritamente necessário. O objetivo deste trabalho é o de desacoplar atividades de tempo de ligação da JVM para um servidor compartilhado, de maneira distribuída. Desta forma, cada cliente JVM se torna um componente de software muito simples que executa código Java nativamente, dispensando um JIT ou interpretador. Todas as atividades complexas de tempo de ligação - como detecção de erros, verificação do formato binário Java e com­pilação JIT - são efetuadas pelo servidor, que armazena suas respostas em uma cache. Este documento é uma descrição de uma implementação alternativa da Máquina Virtual Java que inova em muitos pontos. Em particular, são contribuições deste trabalho: as técnicas para a detecção e recuperação de contextos repetidos em tempo de ligação; um procedimento alternativo, off-line, para a verificação do bytecode Java; o projeto e a im­plementação de uma representação intermediária específica para Java; a descrição, em detalhes, de diversos aspectos de implementação da JVM<br>Abstract: Just-In-Time (JIT) compilation is a well-known technique used to improve the execution time in the Java Virtual Machine (JVM). However, the amount of time used by the JIT internals degrades, in many cases, the application execution time. Some techniques have been used to decrease the JIT overhead, while still keeping its effectiveness. However, the trade-off between the JIT running time and its object code execution time will always existo From our observation, an end-user Java Virtual Machine deals with the same code most of its time. Users always launch the same applications, which are typically composed of the same set of classes. On the other hand, in big companies, dozens or even hundreds of employees share the same application or application suite. Usually, they are connected under the same fast and secure Intranet. In this scenario, the per-user JIT effort is repetitive and largely greater than the strictly required. The goal of our work is to detach linking activities from the JVM to a shared server, on a distributed fashion. By doing that, the client JVM turns to be a very simple piece of software that runs Java code natively, not requiring a JIT or interpreter. All complex linking activities - like link-time error checking, class file verification and JIT compilation are done by the server, which caches its responses. This document is a description of an alternate implementation of the Java Virtual Machine that innovates. It covers specially: the techniques for detecting and caching repetitive link-time contexts; an alternate, offline, byte code verification procedure; the design and implementation of a Java specific intermediate representation; the detailed description of many JVM implementation issues<br>Mestrado<br>Mestre em Ciência da Computação
APA, Harvard, Vancouver, ISO, and other styles
36

Pinto, Randal Juliano Pereira. "Tecnicas de otimização para o interpretador da K virtual machine." [s.n.], 2003. http://repositorio.unicamp.br/jspui/handle/REPOSIP/276340.

Full text
Abstract:
Orientador : Rodolfo Jardim de Azevedo<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação<br>Made available in DSpace on 2018-08-03T22:42:38Z (GMT). No. of bitstreams: 1 Pinto_RandalJulianoPereira_M.pdf: 1892190 bytes, checksum: d5c7c9a843bf9760d761e985a3df1b3c (MD5) Previous issue date: 2003<br>Resumo: Dispositivos portáteis e personalizáveis têm se tornado Ítens cada vez mais importantes em nossas vidas. Telefones celulares, organizadores pessoais, terminais de serviço pos-suem algumas características em comum como a funcionalidade limitada, restrições de tamanho e custo e, principalmente, são um mercado em plena expansão. Para atender a esta demanda, a Sun Microsystems Inc. extendeu o escopo da sua tecnologia Java com a introdução do Java 2 Platform Micro Edition (J2ME). Tendo em vista a característica limitada deste tipo de dispositivo, melhorias no desempenho da plataforma J2ME são essenciais para o seu desenvolvimento e aceitação. Diversas propostas de otimização são encontradas na literatura com enfoque principal nas tecnologias J2SE (Java 2 Standard Edition) e J2EE (Java 2 Enterprise Edition), porém quase nenhuma delas visa exclusi-vamente as necessidades da plataforma J2ME. Este trabalho propõe a aplicação de duas técnicas de otimização no interpretador da KVM. A primeira técnica baseia-se na redução da freqüência de acessos à memória e resultou em ganhos totais nos benchmarks analisa- dos de 0,14% a 5,66% e ganhos em alguns testes de até 37,71%, com aumento no código fonte de apenas 0,62% em relação ao tamanho do executável original. A segunda baseia-se na redução de alguns passos do ciclo de interpretação de bytecodes e seu resultado geral variou de -0,90% até 5,32%, obtendo ganhos em alguns testes de até 18%, com aumento nos códigos fonte variando entre 0,0052% e 0,0142%<br>Abstract: Mobile and customizable devices are increasingly becoming important items in our lives. Cellular phones, personal organizers, service terminaIs have many characteristics in com- mon such as limited functionality, size and cost restrictions and specially are an expanding market. To attend this demanding market, Sun Microsystems Inc. extended the scope of the Java technology, introducing the Java 2 Platform Micro Edition (J2ME). Considering the limitations on this kind of device, performance improvements on the J2ME platform are essential to its development and general acceptance. Several optimization proposals can be found in the technicalliterature focused on J2SE (Java 2 Standard Edition) and J2EE (Java 2 Enterprise Edition) platforms, but almost none aims at the needs of the J2ME platform. The goal of this dissertation is to apply two optimization techniques to the KVM's interpreter. The first technique is based on reducing the number of memory accesses and resulted in a general performance increase from 0.14% to 5.66% and up to 37% for some benchmark programs. The increase on the source code size was only 0.62%, when compared to the original executable size. The second technique is based on reducing some steps of the bytecode interpretation cycle and its general results varied from a per-formance overhead of 0.90% to a performance increase of 5.32%, and up to 18% speedup for some of the benchmark programs. The increase in the source code size varied from 0.0052% to 0.0142%, when compared to the original executable size<br>Mestrado<br>Mestre em Ciência da Computação
APA, Harvard, Vancouver, ISO, and other styles
37

Moreira, Maria Adelaide Silva Paredes. "Contribuição de um software de biomecânica da mão para a fisioterapia." Florianópolis, SC, 2003. http://repositorio.ufsc.br/xmlui/handle/123456789/86129.

Full text
Abstract:
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção.<br>Made available in DSpace on 2012-10-21T03:54:39Z (GMT). No. of bitstreams: 0<br>A própria história da Fisioterapia, contribuiu durante muito tempo como empecilho para que a sociedade reconhecesse seu importante papel na prevenção. Hoje a concepção de Fisioterapia é outra. Trata-se de um profissional envolvido com a saúde da população em todos os níveis de assistência, que vai da prevenção à reabilitação. Preocupada com as condições em que os indivíduos desenvolvem suas atividades, principalmente quando fazem uso da mão, despertou-se o interesse em pesquisar como as novas tecnologias podem auxiliar na prevenção de enfermidades da mão. Neste pensamento, salienta-se a importância de se conhecer a opinião de profissionais e alunos sobre o uso de um software de biomecânica da mão em Fisioterapia com a finalidade de entender a funcionalidade dessa estrutura, afim de conscientizá-los e orienta-los quanto à utilização adequada da mesma, na prevenção. Para tanto este estudo tem os objetivos de salientar a opinião de profissionais (fisioterapeutas e professores) e alunos do curso de graduação em Fisioterapia sobre um software de biomecânica da mão; verificar o conhecimento de profissionais e estudantes sobre um software em biomecânica da mão na Fisioterapia; salientar as contribuições de um software de biomecânica da mão para Fisioterapia segundo os sujeitos da pesquisa; identificar possibilidades de adesão dos sujeitos do estudo com relação ao uso de um software; explorar a existência de diferenciação de opiniões sobre a importância da criação de um software de biomecânica da mão em Fisioterapia na concepção de profissionais e alunos; Trata-se de um estudo exploratório, em uma abordagem quanti-qualitativa, desenvolvido nas cidades de Jequié Bahia e João Pessoa Paraíba, com uma amostra composta por vinte e três sujeitos distribuídos em dois grupos: três professores, doze alunos e oito profissionais. Os dados coletados a partir de um questionário semi-estruturado foram submetidos à técnica de análise de conteúdo, os quais apontaram como resultados as seguintes categorias empíricas: opiniões sobre o uso de tecnologias na prática e ensino; tipos de conhecimentos sobre software em biomecânica da mão; opiniões sobre software em biomecânica da mão e contribuições do software de biomecânica da mão. Dentre os resultados destacam-se a categoria: contribuições do software em biomecânica da mão com cento e dez unidades de análise e opiniões sobre software em biomecânica da mão com setenta e seis unidades de análise. A partir dos resultados destacados conclui-se que os sujeitos do estudo apontaram ser relevante a construção de um software de biomecânica da mão para prática profissional e acadêmica na Fisioterapia.
APA, Harvard, Vancouver, ISO, and other styles
38

Nunhez, José Roberto 1961. "Metodo Spline modificado : acoplamento do metodo da maxima verossimilhança ao metodo Spline." [s.n.], 1990. http://repositorio.unicamp.br/jspui/handle/REPOSIP/267052.

Full text
Abstract:
Orientador: Milton Mori<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia de Campinas<br>Made available in DSpace on 2018-07-14T03:49:19Z (GMT). No. of bitstreams: 1 Nunhez_JoseRoberto_M.pdf: 1859565 bytes, checksum: bde607f608c6d55e2a1d005ea119f81f (MD5) Previous issue date: 1990<br>Resumo: O Método Spline Modificado foi desenvolvido para o alisamento de dados experimentais com incertezas em todas as variáveis medidas. Este método é uma extensão do Método Spline Estendido e é baseado no acoplamento do Método Spline ao Método da Máxima Verossimilhança. O Método Spline Estendido acopla o Método Spline cúbico ao Método dos Mínimos Quadrados. Este método foi desenvolvido anteriormente por Klaus Van-Ness[7]. São apresentadas diversas aplicações a dados Termodinâmicos como dados de equilíbrio líquido-vapor ( diagrama XversusY ), temperatura de ebulição como função da concentração de um sistema binário ( diagrama TversusX ) e calor de mistura de certos sistemas com álcoois ( ?H / X1 . X2versusX1 ). Em todos os casos o Método Spline Modificado mostra melhores resultados do que o Método Spline Estendido. Programas computacionais foram desenvolvidos nas linguagens BASIC e PASCAL incluindo o Método Spline cúbico e o Método Spline Estendido como casos particulares do Método Spline Modificado.<br>Abstract: The Modified Spline fit Technique has been developed for the smoothing of experimental data with uncertanties in all measured variables. This method is a new fit technique and is an extension of the Extended Spline fit Technique and it is based on the coupling of the Maximun Likelihood Principle to the Spline fit Technique. The Extended Spline fit Technique couples the cubic Spline fit Technique to the Least Square Method. It was developed before by Klaus Van-Ness 17]. Several applications to thermodynamic data such as vapor-liquid equilibrium of a binary system ( X versusY diagram ), boiling temperature as a function of the concentration of a binary system (TversusX diagram ) and heat of mixing data of certain alcohol systems ( ?H / X1X2versusX1 ) are presented, and the Modified Spline Method shows better results over the Extended Spline fit Technique. A computer program, in Basic and Pascal languages, has been developed and includes both the Spline fit Technique and the Extended Spline fit Technique as particular cases of the Modified Spline fit Technique.<br>Mestrado<br>Mestre em Engenharia Química
APA, Harvard, Vancouver, ISO, and other styles
39

Freitas, Deborah Queiroz de 1977. "Avaliação de dois metodos de traçados para implantes em radiografias panoramicas." [s.n.], 2002. http://repositorio.unicamp.br/jspui/handle/REPOSIP/289402.

Full text
Abstract:
Orientador : Agenor Montebello Filho<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Odontologia de Piracicaba<br>Made available in DSpace on 2018-08-02T19:44:02Z (GMT). No. of bitstreams: 1 Freitas_DeborahQueirozde_M.pdf: 2645435 bytes, checksum: d704fc1c7e467e6b954af5650cd80fde (MD5) Previous issue date: 2002<br>Resumo: Nos últimos anos, surgiram, na Odontologia, programas de computador desenvolvidos para auxiliar o profissional no planejamento de implantes. Esses programas visam facilitar a obtenção de medidas adequadas em exames radiográficos digitalizados e ainda permitem que as imagens sejam ampliadas e alteradas no contraste, brilho e tonalidade. Os objetivos desse trabalho foram: avaliar a concordância intra-examinador na obtenção de medidas por dois métodos (o manual e o com auxílio de um programa de computador); avaliar a exatidão dessas medidas; e comparar o desempenho dos dois métodos. Para isso, 21 radiografias panorâmicas foram analisadas por cinco avaliadores, pelos dois métodos, em duas ocasiões. No método manual, os avaliadores realizaram, com auxílio de um negatoscópio, um traçado sobre papel acetato fixado às imagens, e, com um paquímetro, obtiveram medidas de nove regiões. Para a análise das imagens no programa de computador, essas foram digitalizadas e exibidas em uma tela de computador. Os avaliadores obtiveram medidas das mesmas regiões analisadas pelo método manual. Para desconto da ampliação inerente à técnica, foram obtidas medidas verticais de esferas presentes nas imagens. Os resultados foram submetidos à análise estatística. Houve baixa concordância intra-examinador, sendo que os avaliadores apresentaram maior dificuldade na reprodução das medidas, quando utilizaram o programa de computador; houve falta de exatidão das medidas nas regiões anteriores e na região que envolveu a visualização do canal mandibular, sendo que a maioria dessas medidas foi obtida ao se utilizar o mesmo programa. Dessa forma, os programas destinados ao planejamento de implantes devem ser utilizados com cautela<br>Abstract: In the last years, computer programs have appeared in order to help dental practitioners in implants planning. These programs aim to facilitate the acquisition of adequate measures in digitalized radiographs as well as to permit these images to be magnified and to have their contrast, brightness and gray level altered. The aims of this study were: to evaluate the intra-examiner agreement in the acquisition of measures using two methods (manual and by means of a computer program), to evaluate the accuracy of these measures and to compare their performances. Five examiners analyzed twenty-one panoramic radiographs. They used the two methods in two occasions. In the manual method, the examiners made, by means of light box, a tracing on a paper fixed to the images and measured nine regions with a caliper. The images were digitalized and showed in a computer screen so that they could be analyzed in the computer program. The examiners acquired measures of the same regions by the manual method. Vertical measures of spheres in the images were acquired in order to discount the magnifying factor of the technique. Through statistics analysis, it was possible to conclude that there was low intra-examiner agreement and the examiners had greater difficulty in reproducing the measures when they used the computer program; there wasn't accuracy of the measures in the anterior regions and in the region that the visualization of the mandibular canal was involved; the measures acquired by the manual method were closer to the real ones<br>Mestrado<br>Mestre em Radiologia Odontológica
APA, Harvard, Vancouver, ISO, and other styles
40

Goulart, Leandro Jekimim. "Estudo de caso de uma extensão de middlewares de TV digital interativa para suporte a aplicações residentes não-nativas /." São José do Rio Preto : [s.n.], 2009. http://hdl.handle.net/11449/98672.

Full text
Abstract:
Orientador: Marcos Antônio Cavenaghi<br>Banca: Eduardo Martins Morgado<br>Banca: João Angelo Martini<br>Resumo: Ao longo dos últimos anos diversos sistemas de TV Digital foram desenvolvidos em todo o mundo, com destaque para o sistema de TV Digital norte-americano (ATSC), europeu (DVB), japonês (ISDB) e brasileiro (SBTVD). Todos estes sistemas diferem entre si em algum aspecto, mas todos apresentem muitas semelhanças conceituais e estruturais, o que permitiu a construção de plataformas de aplicações e serviços interativos comuns ou interoperáveis entre estes sistemas. Em todos estes sistemas, ambientes de aplicação foram desenvolvidos com o objetivo de oferecer serviços interativos através das redes e receptores de TV Digital. Diversos tipos de aplicações são definidos, com variações sobre o acoplamento ou não com o conteúdo audiovisual, a origem da aplicação (nativa ou do broadcast), entre outros aspectos. Este trabalho traz uma nova proposta, a de aplicações residentes não-nativas, um grupo de aplicações que adicionadas e removidas por usuários, executando no topo das APIs disponibilizadas pelo middleware, mas não associadas aos canais de TV Digital. É discutido então uma proposta para desenvolvimento destas extensões, o cenário escolhido para o estudo de caso, composto por implementação de referência de middleware (OpenMHP) e aplicação (Quizlet), o estudo de caso com os dados coletados, discussão e novas propostas. Os resultados são realizados com base na compatibilidade desta implementação de referência com as aplicações MHP existentes.<br>Abstract: Not available.<br>Mestre
APA, Harvard, Vancouver, ISO, and other styles
41

Araújo, Marcelo Marotta. "Estudo comparativo de dois programas de computador (DOLPHIN IMAGING® E NEMOTEC®) versus o método manual utilizados para análises cefalométricas de pacientes com deformidade dento-facial padrão II /." São José dos Campos, 2013. http://hdl.handle.net/11449/111160.

Full text
Abstract:
Banca: Mario Francisco Real Gabrielli<br>Banca: Eduardo Hochuli Vieira<br>Banca: Roger William Fernandes Moreira<br>Banca: José Ricardo de Albergaria Barbosa<br>Banca: Paulo Jose D'Albuquerque Medeiro<br>Resumo: Este estudo analisou traçados digitais obtidos por dois programas de computador (Dolphin Imaging® e Nemotec®) em comparação aos obtidos pelo método manual na análise de oito medidas cefalométricas (SNA, SNB, Co-A, Co-Gn, Altura facial anterior, A-Nperp, Pg-Nperp e Plano mandibular). Foram avaliados 30 pacientes leucodermas, sem distinção de gênero, com idade variando de 19 a 48 anos. Os pacientes eram portadores de retrognatismo mandibular e foram submetidos à cirurgia ortognática para correção, por meio da osteotomia sagital do ramo mandibular. Os traçados cefalométricos foram realizados em telerradiografias norma lateral obtidas uma semana antes da cirurgia. Os resultados foram submetidos à análise estatística. Foi utilizado à análise de coeficiente de correlação intraclasse (ICC), teste t ajustado para Tukey-Kramer e o teste Schuirmann. Os resultados mostraram que o método Manual e o método Nemotec® apresentaram excelentes confiabilidades em todas as medidas (ICC > 0,98). O método Dolphin Imaging® apontou baixa confiabilidade nas medidas Altura facial anterior (valor de ICC= 0,70), Co-A (valor de ICC= 0,47) e Co-Gn (valor de ICC= 0,49). Nas medidas A-Nperp, Pg-Nperp, Plano md, SNA e SNB não houve diferença nos três métodos estudados (p > 0,05); na medida altura facial anterior houve diferença entre os métodos Dolphin Imaging® e Nemotec®, mas não foram observadas diferenças em relação ao método manual (p > 0,05); nas medidas Co-A e Co-Gn foi observado que o método Dolphin Imaging® apresentou média significativamente inferior à dos demais métodos estudados (p > 0,05). O método Manual foi equivalente em 6 das 8 medidas (A-Nperp, Pg-Nperp, Plano md, SNA, SNB e Co-A), nas medidas altura facial anterior e Co-Gn não houve equivalência entre nenhum dos métodos (p < 0,01); não houve equivalência em nenhuma das 8 medidas do método Dolphin Imaging<br>Abstract: A-Nperp, Pg-Nperp e mandibular plane). Thirty patients (male or female), with age varying from 19 to 48 years old were analyzed. All patients were diagnosted with mandibular retrognathism and submitted to bilateral sagital mandibular advancement. All tracings were performed in lateral cephalometric radiographs obtained one week before surgery. The intraclass correlation coefficient analysis (ICC), the t test adjusted for Tukey-Kramer test and Schuirmann test were applied. The results showed that the manual tracings and Nemotec® tracing had excellent reliabilities for all measures (ICC > 0.98). The Dolphin Imaging® showed low reliability in anterior facial height (value of ICC = 0.70), Co-A (value of ICC = 0.47) and Co-Gn (ICC value = 0.49). In A-Nperp, Pg-Nperp, Mandibular plan, SNA and SNB there were no differences between the 3 tracings (p > 0.05), for the anterior facial height measures differences were found between the Dolphin Imaging® and Nemotec® tracings, but no differences were observed as compared to the manual tracing (p > 0.05), in Co-A and Co-Gn measures t Dolphin Imaging® presented a significantly lower mean than the other methods (p > 0.05). The manual tracings were equivalent in 6 of 8 measures (A-Nperp, Pg-Nperp, md Plan, SNA, SNB and Co-A), there was no equivalence between the methods in the anterior facial height and Co-Gn measures (p < 0.01). The Dolphin Imaging® method was not equivalent in any of the 8 measures. It was concluded that in the manual tracing only the Co- Gn, Pg-Nperp and SNB measures confirmed the diagnosis of mandibular retrognathism, and the Nemotec® software showed better results than the Dolphin Imaging® software
APA, Harvard, Vancouver, ISO, and other styles
42

Leitão, Fábio Bauermann. "Desenvolvimento e avaliação de uma ferramenta computacional multimeios utilizada no auxílio ao aprendizado de projetos de experimentos básicos." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2000. http://hdl.handle.net/10183/2943.

Full text
Abstract:
Esta dissertação trata do desenvolvimento e avaliação de uma ferramenta computacional multimeios utilizada no auxílio ao aprendizado de projetos de experimentos básicos. A busca da sociedade por novos produtos e processos, cada vez melhores e de forma mais rápida, determina a necessidade da aplicação de técnicas mais objetivas e eficientes para se alcançar estes desafios. O trabalho de execução visando contemplar o mencionado anteriormente, procedeu-se da seguinte forma: (i) revisão e descrição dos conceitos relativos à Engenharia da Qualidade e ao Planejamento, Projeto e Análise de Experimentos (PPAE); (ii) identificação e descrição de métodos ou regras de planejamento experimental; (iii) investigação e identificação dos projetos e análises de experimentos considerados básicos; (iv) desenvolvimento de uma ferramenta multimeios para o auxílio ao aprendizado de PPAE; (v) avaliação da ferramenta desenvolvida, através de um estudo de caso; (vi) conclusões relacionadas ao trabalho desenvolvido. A abordagem adotada para apresentar a técnica experimental, destacou o planejamento, do projeto e análise, detalhando separadamente os mesmos. Este passo almejou, de forma objetiva, identificar aqueles projetos e análises básicos, iniciais ao aprendizado. A elaboração e posterior avaliação da ferramenta multimeios permitiu perceber a potencialidade da mesma, como um meio instrucional para o tema específico de projetos de experimentos, sendo sua aplicação de relativa facilidade. A avaliação mostrou ainda que existe muito a se avançar nos meios físicos de apresentação/execução deste tipo de ferramenta multimeios.<br>This dissertation is about the development and evaluation of a computational multimedia tool for supporting the learning of basic design of experiments. The society’s search for new and improved products and faster processes creates the need for the application of more objective and efficient techniques. Therefore, the work that follows deals with the aforementioned issues through the following steps: (i) revision and description of concepts relative to the Quality Engineering and Planning, Design and Analysis of Experiments (DOE); (ii) identification and description of methods and rules for experimental planning; (iii) investigation and identification of basic designs and analyses of experiments; (iv) development of a multimedia tool to support the learning of DOE; (v) evaluation of the proposed tool, through a case study; (vi) conclusions. The adopted approach for presenting the design of experiments, highlighted the experimental planning, as much as the design and analysis, in order to identify in an objective way, those basic designs and analyses that introducing the learning. The elaboration and evaluation of the proposed multimedia tool was promising. The evaluation also showed that a lot could still be done for improving the presentation/execution of physical means for this type of multimedia tool.
APA, Harvard, Vancouver, ISO, and other styles
43

Campana, Edriano Carlos [UNESP]. "Um ambiente computacional para emular em rede aplicações interativas desenvolvidas para televisão digital." Universidade Estadual Paulista (UNESP), 2015. http://hdl.handle.net/11449/126429.

Full text
Abstract:
Made available in DSpace on 2015-08-20T17:09:45Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-02-24. Added 1 bitstream(s) on 2015-08-20T17:26:28Z : No. of bitstreams: 1 000839435.pdf: 1652112 bytes, checksum: 33a459329f83b06bbff39ada560f9a0d (MD5)<br>O objetivo deste trabalho é o desenvolvimento de um ambiente computacional de baixo custo para emular aplicações interativas para a Televisão Digital. Tal ambiente se estabelece através de um ambiente didático e de pesquisa baseado numa rede local de computadores que emule o ambiente oferecido pela Televisão Digital . Desta forma, pesquisadores, profissionais e demais interessados nos novos paradigmas oferecidos pela transmissão digital poderão desenvolver, pesquisar e estudar mecanismos de interatividade num ambiente similar, acessível e de baixo custo<br>The objective of this work is to develop an inexpensive computational environment to emulate interactive applications for Digital Television. Such ans environment is established through a learning environment and research based on a local area network that emulates the environment offered by the Digital Television. This way, researchers, professionals and others interested in the paradigms offered by digital transmission may develop, research and study interactive mechanisms in a similar, accessible and inexpensive envinronment
APA, Harvard, Vancouver, ISO, and other styles
44

Campana, Edriano Carlos. "Um ambiente computacional para emular em rede aplicações interativas desenvolvidas para televisão digital /." Bauru, 2015. http://hdl.handle.net/11449/126429.

Full text
Abstract:
Orientador: Humberto Ferasoli Filho<br>Banca: João Pedro Albino<br>Banca: Myrian Lucia Ruiz Castilho<br>Resumo: O objetivo deste trabalho é o desenvolvimento de um ambiente computacional de baixo custo para emular aplicações interativas para a Televisão Digital. Tal ambiente se estabelece através de um ambiente didático e de pesquisa baseado numa rede local de computadores que emule o ambiente oferecido pela Televisão Digital . Desta forma, pesquisadores, profissionais e demais interessados nos novos paradigmas oferecidos pela transmissão digital poderão desenvolver, pesquisar e estudar mecanismos de interatividade num ambiente similar, acessível e de baixo custo<br>Abstract: The objective of this work is to develop an inexpensive computational environment to emulate interactive applications for Digital Television. Such ans environment is established through a learning environment and research based on a local area network that emulates the environment offered by the Digital Television. This way, researchers, professionals and others interested in the paradigms offered by digital transmission may develop, research and study interactive mechanisms in a similar, accessible and inexpensive envinronment<br>Mestre
APA, Harvard, Vancouver, ISO, and other styles
45

Speck, Henderson Jose. "Avaliação comparativa das metodologias utilizadas em programas de modelagem sólida." Florianópolis, SC, 2001. http://repositorio.ufsc.br/xmlui/handle/123456789/80366.

Full text
Abstract:
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção.<br>Made available in DSpace on 2012-10-18T13:21:43Z (GMT). No. of bitstreams: 1 185479.pdf: 3701610 bytes, checksum: df742b99b728c99072b4f60d91bd42b4 (MD5)<br>Este trabalho de dissertação apresenta uma avaliação comparativa entre softwares utilizados de Desenho Auxiliado por Computador - CAD, enfocando os processos de modelagem sólida e seus sistemas de representação.
APA, Harvard, Vancouver, ISO, and other styles
46

Loureiro, Geilson. "QFD auxiliado por computador em abordagens por engenharia simultânea." Instituto Tecnológico de Aeronáutica, 1994. http://www.bd.bibl.ita.br/tde_busca/arquivo.php?codArquivo=1702.

Full text
Abstract:
Este trabalho tem por objetivo apresentar uma abordagem sistemica e algoritmica para a implementacao do QFD (Desdobramento da Funcao Qualidade). Essa abordagem e chamada aqui de CAQFD (QFD auxiliado por computador). O CAQFD inclui integracao por redes de computadores e aspectos organizacionais convenientes. Suas vantagens principais sao: integrabilidade (por computador), flexibilidade, disponibilidade, memoria e maior produtividade. O QFD e entendido como uma ferramenta de Engenharia Simultanea e prove uma abordagem mais ampla para a definicao de Qualidade do que outras ferramentas de engenharia simultanea. Quando um produto e projetado com o auxilio do QFD, a qualidade desse produto e de todo o processo produtivo e definida pelo nivel de satisfacao do cliente que o produto proporciona. As necessidades dos clientes sao desdobradas, sucessivamente, em Requisitos de Sistema, Caracteristicas das Partes, Processos de Fabricacao e Operacoes de Manufatura. O projeto de produtos complexos, tais como produtos mecatronicos, necessita de uma nova abordagem do projeto de engenharia. Na abordagem tradicional, o projeto e &quot;jogado por sobre o muro&quot; que separa os grupos responsaveis pelas fases do ciclo de vida do produto. Na abordagem da Engenharia Simultanea, um time de projeto conduz, de maneira integrada, todas essas fases. O CAQFD e uma maneira muito eficiente de implementar a Engenharia Simultanea. Sua abordagem sistemica e obtida atraves das regras de trabalho, da rede de computadores e de uma filosofia e estrutura organizacionais.Sua abordagem algoritmica e fornecida pelo modelamento das matrizes QFD como uma grande arvore de objetivos. Inicialmente, essa arvore emodelada por matrizes binarias e a seguir, as celulas das matrizes sao ponderadas. Esse modelo e obtido pela conducao de perguntas dirigidas por um computador. Este trabalho apresenta, inicialmente, a necessidade de uma nova abordagem para o projeto de engenharia. A seguir, a abordagem de Engenharia Simultanea e apresentada, seguida pela apresentacao do QFD. O CAQFD elimina as desvantagens da implementacao manual do QFD, provendo as vantagens acima mencionadas. Todas as fases do ciclo de vida do produto podem ser eficientemente integradas pelo CAQFD, a partir das necessidades de mercado ate as operacoes de manufatura necessarias para obte-las.
APA, Harvard, Vancouver, ISO, and other styles
47

Allan, Valéria Falcão. "A contribuição de uma ferramenta na realização de uma experiência em educação virtual para o ensino fundamental com algumas escolas locais /." Rio Claro : [s.n.], 2011. http://hdl.handle.net/11449/95730.

Full text
Abstract:
Orientador: Ana Tereza Cáceres Cortez<br>Banca: Rosangela Doim de Almeida<br>Banca: Tania M. Campos Leite<br>Resumo: O Sabixão é um programa on line que foi desenvolvido especialmente para auxiliar os professores nas atividades realizadas nos laboratórios de informática. Por ser uma ferramenta on line, o programa procura contribuir para minimizar a cobrança social pela entrada e aplicação da tecnologia no meio educacional. A partir do momento da sua criação, a tecnologia gera uma necessidade e toda a sociedade passa a pensar que o invento é necessário e dessa maneira ele passa a ser realmente necessário. Atualmente o convívio com a área da tecnologia e a área da educação, é mais do que um desafio, pois, impõe-se como necessidade de compreensão e ação do educador do mundo moderno. É necessário entender a tecnologia como aplicação de teorias, métodos e processos científicos às técnicas, sendo que a tecnologia como aplicação científica é característica da sociedade moderna e é um saber integrante de nossa cultura. O Sabixão é criado neste contexto onde procura atender as necessidades modernas da era do conhecimento e de estar atualizado com as necessidades de interação da tecnologia com os processos educacionais, ou seja, ao mesmo tempo em que ele se apresenta de maneira tradicional no formato de um "quiz" (jogo de perguntas e respostas), ele procura atender as exigencias do mundo conteporaneo para ser facilmente acessado por qualquer aparelho (gadget eletronico) seja fixo ou movel como tablets, celulares, e computadores. Além de estar atualizado com todos os navegadores que operam atualmente e os principais sistemas operacionais conhecidos (Windows, Mac Os, IOS, Linux e Android), acompanhando assim as tendências sociais e econômicas, quanto as inovações do mercado tecnológico<br>Abstract: Sabixão is an on-line application designed specifically to aid school teachers with activities performed within the informatics laboratory. As an on line tool, the application seeks to minimize the social pressure upon schools for entry and adoption of technologies in the education environment. Since the moment of its inception, technology creates a need were society starts believing that invention is a necessity and from there on it really becomes necessary. Today, the coexistence between the areas of technology and education is more of a challenge, since there is a need on behalf of educators to understand and take action. It is necessary to understand technology as the application of theories, methods, techniques and scientific processes, and being technology a scientific application it is a characteristic of modern society and the knowledge that belongs to our culture. Sabixão was created within this context where it seeks to satisfy modern needs in the era of knowledge and up to date with the need for educational processes to interact with technology. In other words at the same time it presents itself in a traditional manner in the form of a quiz (game of questions and answers), it seeks to satisfy the needs of a contemporary world to be readily accessible from any device (electronic gadget) whether fixed or mobile like tablets, smart-phones and computers. In addition to be functional within all navigators under the most available operating systems (Windows, Mac Os, IOS, Linux and Android), it follows the social and economic tendencies when it come to market innovation<br>Mestre
APA, Harvard, Vancouver, ISO, and other styles
48

Vilela, Plinio Roberto Souza. "Uma ferramenta para auxilio visual ao teste e depuração de programas." [s.n.], 1994. http://repositorio.unicamp.br/jspui/handle/REPOSIP/261544.

Full text
Abstract:
Orientadores : Mario Jino, Jose Carlos Maldonado<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica<br>Made available in DSpace on 2018-07-18T23:49:44Z (GMT). No. of bitstreams: 1 Vilela_PlinioRobertoSouza_M.pdf: 5744979 bytes, checksum: f8dcf850429c1e7981c14dc8a7803c38 (MD5) Previous issue date: 1994<br>Resumo: Os principais aspectos da especificaçãoda ViewGraph, uma ferramenta cujo propósito é auxiliar a atividade de teste e depuração de programas, através da visualização de informações de teste fomecidas pela POKE-TOOL [CHA91], são apresentados. Os principais pontos relacionados do Teste Estrutural Baseado em Análise de Fluxo de Dados suportado pela POKE-TOOL, são também apresentados. Os principais algoritmos utilizados na ferramenta ViewGraph são aqueles que tratam da geração da disposição gráfica dos grafos de programa; sua descrição é mostrada em detalhes nessa dissertação. Uma avaliação empírica dos algoritmos foi realizada e os resultados são apresentados. As características bem como os principais problemas encontrados na implementação de um subconjunto da especificação da ViewGraph são também discutidos<br>Abstract: The specification and main features are presented of ViewGraph, a tool designed to aid in testing and debugging tasks by providing the visualization of test information produced by POKE-TOOL [CHA91]. The main points on Structural Testing based on Data Flow Analysis, supported by POKE-TOOL,are also presented. The most important algorithms in ViewGraph are the ones which deal with the visualization of program graphs; their detailed description is shown. An empirical evaluation of the algorithms was conducted and the results are presented. The characteristics as well as the major problems of the implementation of a subset of the specification of ViewGraph are aiso discussed.I<br>Mestrado<br>Mestre em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
49

Viecelli, Alexandre. "Projeto de matrizes fechadas de forjamento à quente, para peças axissimétricas com rebarba, auxiliado por computador." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 1995. http://hdl.handle.net/10183/159026.

Full text
Abstract:
O presente trabalho trata do estudo das características do projeto de matrizes fechadas para o forjamento a quente de peças axissimétricas com rebarba, com a posterior concepção de um software que auxilia a projetar matrizes de forjamento através de uma seqüência de passos, com a interação do usuário, quando requerido. O trabalho apresenta, na sua parte inicial, uma revisão da metodologia de projeto desse tipo de peça, dando suporte para a elaboração de um programa em linguagem C, que reúne características de baixo custo, alta flexibilidade, facilidade de operação e possibilidade de melhoramentos posteriores. O projeto da matriz de forjamento inicia pelo desenho da peça usinada no computador e segue uma seqüência de passos, como: inclusão de alma central, do sobremetal de usinagem, dos ângulos de saída da peça, dos raios de arredondamento e da zona de rebarba, acompanhados de cálculos importantes como a carga e energia de forjamento, pesos, áreas e volumes. Posteriormente, projeta-se a matriz de moldagem da pré-forma. Todos os dados necessários para o projetista são impressos na forma de relatório para a posterior fabricação das matrizes.<br>This work presents the description of the design of axisymetric closed dies for hot forging with flash, as well as the conception of a software that aids the design o f dies by means of a sequence of steps, with the interaction of the user, when required. Initially, there is a review of the design methodology about this type of part, which served as base for the software conception in C language. This software was developed to have low cost, great flexibility, userfiiendability and possibility offurther improvements. The design o f forging dies begins with the shape description o f the machined part in the computer and follows this sequence to shape the finishing cavity: add central web, machining allowance, draft angles, comer and fillet radii and flash land. Some important calculations are made, such as the forging load and energy, weights, areas and volumes. Based upon the profile ofthe finishing cavity, the software designs the mould impression (prefonn cavity). All data are printed to pennit die manufacturing.
APA, Harvard, Vancouver, ISO, and other styles
50

Porto, João Paulo. "Técnicas e arquitetura para captura de traços e execução especulativa." [s.n.], 2011. http://repositorio.unicamp.br/jspui/handle/REPOSIP/275770.

Full text
Abstract:
Orientador: Guido Costa Souza de Araújo<br>Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação<br>Made available in DSpace on 2018-08-17T08:05:03Z (GMT). No. of bitstreams: 1 Porto_JoaoPaulo_D.pdf: 1983380 bytes, checksum: edef40fbafe26ce2d849308b08daf786 (MD5) Previous issue date: 2011<br>Resumo: É sabido que o modelo de desenvolvimento de micro-processadores baseado na extração de Instruction-Level Parallelism (ILP) de código sequencial atingiu seu limite. Encontrar soluções escaláveis e eficientes que permitam a manutenção de inúmeras instruções em execução simultaneamente tem se mostrado um desafio maior que o imaginado. Neste sentido, arquitetos e micro-arquitetos de computadores vêm buscando soluções alternativas para o desenvolvimento de novas arquiteturas. Dentre as soluções existentes, vêm ganhando força as baseadas na extração de Thread-Level Parallelism (TLP). Resumidamente, TLP é um tipo de paralelismo que tenta quebrar um programa sequencial em tarefas relativamente independentes entre si para executá-las em paralelo. TLP pode ser extraído por hardware ou software. Idealmente, uma solução híbrida deve ser utilizada, com o software realizando a identificação das oportunidades de extração de TLP, e com o hardware provendo suporte para execução do código gerado. Com tal solução de compromisso, o hardware fica livre da necessidade de especular, e o software pode trabalhar com maiores garantias. Nesta Tese, estudaram-se formas automáticas de paralelização e extração de TLP. Inicialmente, focou-se em traces dinâmicos de execução de programas sequenciais. Técnicas existentes (tais como MRET e Trace Trees) mostraram-se inapropriadas, de modo que desenvolveu-se uma nova técnica chamada Compact Trace Tree (CTT), que mostrou-se mais rápida que Trace Trees. Trace Tree (TT) também apresentam grande nível de especialização de código (tail duplication), característica ausente em MRET. Além de CTT, esta Tese apresenta Trace Execution Automata (TEA), um autômato que representa traces de execução. Esta representação revelou, em nossos experimentos, quase 80% de economia de espaço quando comparada com a representação usual. A seguir, o foco da Tese foi voltado para laços de execução e para paralelização estática de código sequencial através de Decoupled Software Pipeline (DSWP). Nosso primeiro resultado nesta direção, usando Java, mostrou claramente que sem nenhum suporte em hardware, a paralelização estática de programas poderia atingir um ganho de desempenho médio de 48% nas aplicações paralelizadas. Finalmente, a Tese propõe um modelo de execução paralelo baseado em DSWP que permite a consistência de dados entre as diversas threads de programas paralelizados. Apesar de não avaliar esta arquitetura completamente, os resultados iniciais são promissores. Além disso, o suporte necessário em hardware é simples e acomoda-se sobre o protocolo de coerência de cache existente, sem alterações sensíveis no processador<br>Abstract: The usual, Insturction-Level Parallelism (ILP)-oriented, microprocessor development model is known to have reached a hard-to-break limit. Finding scalable and efficient solutions that keep several instructions on-the-fly simultaneously has proven to be moredifficult than imagined. In this sense, computer architects and micro-architects have been seeking alternatives to develop new architectures. Among all, the TLP-based solutions are gaining strength. In short, TLP strives to break a sequential program into quasi-independent tasks in order to execute them in parallel. TLP can be extracted either by hardware or software. Ideally, a hybrid solution would be employed, with the software being responsible to identifying TLP opportunities, and the hardware offering support for the parallel code execution. With such solution, the hardware is free from the heavy speculation burden, whilst the software can be parallelized with more warranties. In this Thesis, automatic parallelization and TLP strategies were studied. The research first focused on dynamic execution traces. Existing techniques, such as MRET and Trace Trees proved unsuitable for our goals, which led us to develop a new trace identification technique called Compact Trace Trees, which showed to be faster than Trace Trees. Compact Trace Trees also present trace specialization, which MRET lacks. Besides Compact Trace Trees, this Thesis presents a new trace representation called Trace Execution Automata, an automaton representing the execution traces. This technique revealed nearly 80% memory size savings when compared to the usual, code duplication representation. Next, the Thesis' focus shifted to parallelizing loops statically. Our initial result in this direction, using Java and without any hardware support, clearly revealed that static parallelization of sequential programs could reach a 48% average speedup when compared to their sequential execution. Finally, a new, Decoupled Software Pipelining-based execution model with automatic data coherence amongst parallelized programs'threads is proposed by the Thesis. Despite the lack of a full model evaluation, the initial results are promising. Differently from other proposals, the hardware support necessary for this architecture is simple and builds upon the existing cache coherence protocol, without any modifications to this sensitive system component<br>Doutorado<br>Doutor em Ciência da Computação
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography