Academic literature on the topic 'Granularidade fina'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Granularidade fina.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Granularidade fina"

1

Cordero Guzman, Diego Marcelo, and Guillermo Rodríguez López. "La inteligencia de negocios: una estrategia para la gestión de las empresas productivas. // Business intelligence: a strategy for the management of productive enterprises." Ciencia Unemi 10, no. 23 (October 4, 2017): 40. http://dx.doi.org/10.29076/issn.2528-7737vol10iss23.2017pp40-48p.

Full text
Abstract:
El trabajo propone determinar un conjunto de indicadores acerca del desempeño de las empresas productivas del Cantón La Troncal, provincia del Cañar, Ecuador, para usar la “Inteligencia de Negocios” (Business Intelligence BI) como una mejor práctica que apoye la gestión organizacional y la consecución de los objetivos estratégicos. Para ello primero se levantó información en empresas locales, en base a una muestra específica, con instrumentos del tipo cuestionario y entrevista. Luego, a partir de la información obtenida se diseñó un cuadro de mando integral (Balanced Scorecard) con los indicadores claves de desempeño más significativos para las empresas de la muestra, de modo que se puedan implementar con los servicios multidimensionales que ofrecen las herramientas de Inteligencia de Negocios. Finalmente, los informes se representaron en tableros de control, con un rango de granularidad fino, que permitan a los directivos tomar decisiones claras, reduciendo el grado de incertidumbre. ABSTRACTThe paper aims to determine a set of indicators about the performance of productive enterprises in Canton La Troncal, province of Cañar, Ecuador, to use “Business Intelligence” (Business Intelligence BI) as the best practice that supports organizational management and achievement of the strategic objectives. For this purpose, information was first collected through a survey that was carried out in local companies, based on a specific sample, with questionnaires and interviews. Then, based on the information obtained, a Balanced Scorecard was designed with the most significant key performance indicators for the companies in the sample, so that they can be implemented with the multidimensional services offered by business intelligence tools. Finally, the reports were presented in control panels, with a fine granularity range, which allow managers to make clear decisions, reducing the degree of uncertainty.
APA, Harvard, Vancouver, ISO, and other styles
2

Almaraz-Alonso, Manuel, Sergio Rafael Coria Olguín, and José Isaías Siliceo-Murrieta. "Un índice de aptitud para la educación para la salud por medio de las TIC en los municipios de México." Nova Scientia 10, no. 20 (May 25, 2018): 630–67. http://dx.doi.org/10.21640/ns.v10i20.1186.

Full text
Abstract:
Introducción: Este artículo presenta el Índice de Aptitud en Tecnologías de Información y Comunicación para Educación para la Salud (IATICS). Es un índice cuantitativo compuesto que sirve para medir el potencial que tienen los habitantes de los municipios de México para aprovechar las tecnologías de información y comunicación (TIC) como medio para recibir educación para la salud (ES). A partir de esta medición, se define una tipología de municipios basada en intervalos. Cada intervalo definido se representa mediante la etiqueta nominal IATICS. La tipología permite definir estrategias de aprovechamiento de las TIC para cada tipo de municipio.Método: IATICS se calcula a partir de indicadores estadísticos municipales de: 1) disponibilidad de energía eléctrica en las viviendas, 2) presencia de productos y servicios de TIC, 3) disponibilidad de servicios de salud, 4) analfabetismo y 5) presencia de hablantes de alguna lengua indígena que no hablan español. La metodología de cálculo del índice se basa en una fórmula aritmética sencilla y puede aplicarse sobre datos de México con una granularidad territorial de municipio o más fina; p. ej. localidad, área geo-estadística básica (AGEB) o manzana.Resultados: Los valores de IATICS, en sus modalidades cuantitativa y nominal, se calculan para cada uno de los municipios mexicanos aplicando el procedimiento específicamente definido para este propósito. La fuente de datos para los cálculos es el Censo Nacional de Población y Vivienda del año 2010, realizado por el Instituto Nacional de Estadística y Geografía (INEGI). Los resultados de estos dos índices (el cuantitativo y el nominal) se han puesto disponibles en archivos de hoja de cálculo que se pueden descargar gratuitamente de la WWW.Discusión o Conclusión: IATICS permite medir, tipificar y priorizar el potencial que tienen los habitantes de los municipios mexicanos para aprovechar las TIC en la ES. IATICS ofrece algunos recursos de información para contribuir al diseño de políticas públicas de gobierno electrónico en el área de e-salud (e-health) para los municipios. Los valores del índice pueden recalcularse periódicamente para actualizarse con nuevos datos censales, con lo cual también puede medirse la evolución de las condiciones de cada municipio. Finalmente, esta metodología puede aplicarse sobre datos de otros países, para que estos puedan adaptarla al diseño y evaluación de sus respectivas políticas públicas de ES apoyada en TIC.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Granularidade fina"

1

Junior, Walter Soto Encinas. "Avaliação de técnicas de compressão de imagens para implementação em FPGA de granularidade fina." Universidade de São Paulo, 2000. http://www.teses.usp.br/teses/disponiveis/76/76132/tde-23032015-195241/.

Full text
Abstract:
Este trabalho analisa a viabilidade de implementação de um sistema de compressão de vídeo em FPGAs com restrições de área e de recursos de roteamento, de modo a estudar as possibilidades oferecidas por pequenas áreas de lógica reconfigurável associadas a processadores clássicos. A técnica de eliminação de redundância espacial adotada é a Transformada Wavelet (WT), ao invés da já bastante explorada Transformada Cosseno (DCT). A arquitetura selecionada para efetuar a DWT é implementada no FPGA Xilinx XC6200, que apresenta características muito interessantes de reconfiguração rápida e dinâmica. Também foi desenvolvido um modelo estatístico dos erros de quantização associados à implementação da Transformada Waveletem aritmética de ponto fixo, auxiliando uma implementação em hardware mais eficiente em termos de área e desempenho. Algumas arquiteturas alternativas para a DWT são implementadas, para avaliação dos méritos de cada uma delas. Para permitir esta implementação, uma biblioteca de funções para processamento de sinais otimizada para o FPGA XC6200 também foi desenvolvida. Os resultados mostram que um sistema completo de compressão, utilizando os filtros propostos por Daubechies pode ser implementado utilizando o equivalente a 2500 portas lógicas e atinge taxas de compressão de aproximadamente 8 vezes sem perda significativa de qualidade em imagens monocromáticas de 256x256 pixels a 30 quadros por segundo
The purpose of this work is to study the problems associated with the implementation of a image compression system implemented with fine-grained FPGAs with scarce routing resources. The study intends to explore possibilities offered by small areas of reconfigurable logic coupled to classical processors. The image compression technique adopted was Discrete Wavelet Transform (DWT), instead the well-known Discrete Cosine Transform. The architecture was built in a Xilinx FPGA, the XC6200, a very interesting device due to its dynamic reconfigurable features. It was also developed a study about quantization errors in DWT processed with fixed point arithmetic. Some other DWT architectures are presented and the advantages are discussed. The implementation of these architectures led to the development of signal processing libraries optimized to XC6200. The implementation was made with only 2500 gates and showed that is possible to reach video rates. Frame sizes are 256x256 with 256 gray levels, and the compression rate is about 8 times
APA, Harvard, Vancouver, ISO, and other styles
2

Sousa, Gustavo José [UNESP]. "FGSCM: uma abordagem de omissão de lock transacional com granularidade fina na resolução de conflitos." Universidade Estadual Paulista (UNESP), 2017. http://hdl.handle.net/11449/152117.

Full text
Abstract:
Submitted by Gustavo José de Sousa null (gustavo.jo.sousa@gmail.com) on 2017-11-07T18:17:35Z No. of bitstreams: 1 dissertacao.pdf: 1114730 bytes, checksum: 360fec3dffa930a34e0cdc2bb0ff960d (MD5)
Approved for entry into archive by Luiz Galeffi (luizgaleffi@gmail.com) on 2017-11-21T13:38:05Z (GMT) No. of bitstreams: 1 sousa_gj_me_sjrp.pdf: 1114730 bytes, checksum: 360fec3dffa930a34e0cdc2bb0ff960d (MD5)
Made available in DSpace on 2017-11-21T13:38:05Z (GMT). No. of bitstreams: 1 sousa_gj_me_sjrp.pdf: 1114730 bytes, checksum: 360fec3dffa930a34e0cdc2bb0ff960d (MD5) Previous issue date: 2017-08-30
Omissão de lock é uma técnica onde operações de aquisição e liberação de lock são omitidas (especulação) de forma a permitir que regiões críticas compartilhando um mesmo lock possam executar concorrentemente, permitindo assim se explorar um nível maior de concorrência em programas que utilizam esse método popular de sincronização. Para se manter o princípio de atomicidade, as modificações no estado do programa realizadas pela região crítica são mantidas em um buffer interno e são efetivadas apenas ao fim da mesma. Em caso de inconsistências, diferentes políticas em como proceder são possíveis, o que diferencia as diversas abordagens de omissão de lock encontradas na literatura. Por exemplo, a abordagem original, Speculative Lock Elision (SLE), que é implementada no nível microarquitetural, recorre a adquirir o lock de forma tradicional quando uma especulação falha. Em algumas situações, esta política conservadora acaba por restringir o ganho em desempenho originalmente pretendido por impor um volume de sincronização desnecessário (lemming effect). Uma forma de superar tal limitação é o emprego de omissão de lock transacional (Transactional Lock Elision, em inglês), onde a especulação de regiões críticas se dá por meio de transações e o controle de execução é devolvido ao software em eventos de transações abortadas, o que permite que diferentes estratégias sejam empregadas com o objetivo de permitir execução concorrente mesmo em presença de falha de especulação. Neste contexto, uma das abordagens possíveis é o esquema chamado Software-assisted Conflict Management (SCM), onde um lock auxiliar é utilizado para sincronizar transações abortadas e, assim, manter o lock original livre, permitindo que outras transações prossigam sua execução. No presente trabalho, uma extensão ao SCM é proposta, o esquema Fine-grained Software-assisted Conflict Management (FGSCM), onde múltiplos locks são utilizados para permitir que transações abortadas por conflitos em diferentes regiões de memória possam ser executadas de forma concorrente. O algoritmo proposto foi implementado utilizando a interface RTM da extensão Intel® TSX e experimentos foram realizados em um máquina quadcore, para os quais, em casos com predominância de operações de leitura em memória, observou-se um ganho em desempenho médio de 11% e 36% com relação à abordagem SCM original e ao uso de um spin lock comum, respectivamente.
Lock elision is a technique that omits acquire/release lock operations (speculation) so as to allow critical regions sharing the same lock to run concurrently, which yields a higher level of concurrency explored by programs that use such popular synchronization mechanism. In order to honor atomicity, modifications on the program's state made by the critical regions are kept in an internal buffer and only applied at the end of the speculation. If inconsistency is found, different policies on how to proceed are possible, which make up the several existing approaches found in the literature. As an example, the original one, namely Speculative Lock Elision (SLE), which is implemented at the level of microarchitecture, falls back to acquire the lock in a standard manner when there is speculation error. In some situations, such conservative policy ends up restricting the intended performance gains due to the unnecessary synchronization imposed (lemming effect). A way to address this issue is through Transactional Lock Elision (TLE) techniques, in which speculation of critical regions is done by means of transactions and execution control is passed back to software on abort events, which makes possible the use of different strategies to allow concurrent execution even in presence of speculation error. In this context, one possible approach is called Software-assisted Conflict Management (SCM), where an auxiliary lock is used to serialize aborted transactions and, as such, keep the original one free, so that others may proceed on their execution. The work presented in this document proposes an extension of SCM, called Fine-grained Software-assisted Conflict Management (FGSCM), where multiple auxiliary locks are applied in order to allow transactions aborted due to conflict on different regions of memory to be executed concurrently. The proposed algorithm was implemented by using the RTM interface from Intel®'s TSX extension and experiments were performed on a quadcore machine. On read-dominated workloads, an average performance gain of 11% and 36% was observed against the original SCM and a typical spin lock, respectively.
APA, Harvard, Vancouver, ISO, and other styles
3

Assis, ?talo Augusto Souza de. "Um algoritmo paralelo eficiente de migra??o reversa no tempo (rtm) 3d com granularidade fina." Universidade Federal do Rio Grande do Norte, 2015. http://repositorio.ufrn.br/handle/123456789/19828.

Full text
Abstract:
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2016-02-22T21:52:17Z No. of bitstreams: 1 ItaloAugustoSouzaDeAssis_DISSERT.pdf: 2067503 bytes, checksum: 774040a098f0200527ecd35e1ac92443 (MD5)
Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2016-02-24T00:08:09Z (GMT) No. of bitstreams: 1 ItaloAugustoSouzaDeAssis_DISSERT.pdf: 2067503 bytes, checksum: 774040a098f0200527ecd35e1ac92443 (MD5)
Made available in DSpace on 2016-02-24T00:08:09Z (GMT). No. of bitstreams: 1 ItaloAugustoSouzaDeAssis_DISSERT.pdf: 2067503 bytes, checksum: 774040a098f0200527ecd35e1ac92443 (MD5) Previous issue date: 2015-01-30
Conselho Nacional de Desenvolvimento Cient?fico e Tecnol?gico - CNPq
O algoritmo de migra??o reversa no tempo (RTM) tem sido amplamente utilizado na ind?stria s?smica para gerar imagens do subsolo e, assim, reduzir os riscos de explora??o de petr?leo e g?s. Seu uso em larga escala ? devido a sua alta qualidade no imageamento do subsolo. O RTM ? tamb?m conhecido pelo seu alto custo computacional. Por essa raz?o, t?cnicas de computa??o paralela t?m sido utilizadas em suas implementa??es. Em geral, as abordagens paralelas para o RTM utilizam uma granularidade grossa, dividindo o processamento de um subconjunto de tiros s?smicos entre n?s de sistemas distribu?- dos. A abordagem paralela com granularidade grossa para o RTM tem se mostrado bastante eficiente uma vez que o processamento de cada tiro s?smico pode ser realizado de forma independente. Todavia, os n?s dos sistemas distribu?dos atuais s?o, em geral, equipamentos com diversos elementos de processamento sob uma arquitetura com mem?ria compartilhada. Assim, o desempenho do algoritmo de RTM pode ser consideravelmente melhorado com a utiliza??o de uma abordagem paralela com granularidade fina para o processamento designado a cada n?. Por essa raz?o, este trabalho apresenta um algoritmo paralelo eficiente de migra??o reversa no tempo em 3D com granularidade fina utilizando o padr?o OpenMP como modelo de programa??o. O algoritmo de propaga??o da onda ac?stica 3D comp?e grande parte do RTM. Foram analisados diferentes balanceamentos de carga a fim de minimizar poss?veis perdas de desempenho paralelo nesta fase. Os resultados encontrados serviram como base para a implementa??o das outras fases do RTM: a retropropaga??o e a condi??o de imagem. O algoritmo proposto foi testado com dados sint?ticos representando algumas das poss?veis estruturas do subsolo. M?tricas como speedup e efici?ncia foram utilizadas para analisar seu desempenho paralelo. As se??es migradas mostram que o algoritmo obteve um desempenho satisfat?rio na identifica??o das estruturas da subsuperf?cie. J? as an?lises de desempenho paralelo explicitam a escalabilidade dos algoritmos alcan?ando um speedup de 22,46 para a propaga??o da onda e 16,95 para o RTM, ambos com 24 threads.
The reverse time migration algorithm (RTM) has been widely used in the seismic industry to generate images of the underground and thus reduce the risk of oil and gas exploration. Its widespread use is due to its high quality in underground imaging. The RTM is also known for its high computational cost. Therefore, parallel computing techniques have been used in their implementations. In general, parallel approaches for RTM use a coarse granularity by distributing the processing of a subset of seismic shots among nodes of distributed systems. Parallel approaches with coarse granularity for RTM have been shown to be very efficient since the processing of each seismic shot can be performed independently. For this reason, RTM algorithm performance can be considerably improved by using a parallel approach with finer granularity for the processing assigned to each node. This work presents an efficient parallel algorithm for 3D reverse time migration with fine granularity using OpenMP. The propagation algorithm of 3D acoustic wave makes up much of the RTM. Different load balancing were analyzed in order to minimize possible losses parallel performance at this stage. The results served as a basis for the implementation of other phases RTM: backpropagation and imaging condition. The proposed algorithm was tested with synthetic data representing some of the possible underground structures. Metrics such as speedup and efficiency were used to analyze its parallel performance. The migrated sections show that the algorithm obtained satisfactory performance in identifying subsurface structures. As for the parallel performance, the analysis clearly demonstrate the scalability of the algorithm achieving a speedup of 22.46 for the propagation of the wave and 16.95 for the RTM, both with 24 threads.
APA, Harvard, Vancouver, ISO, and other styles
4

Sousa, Gustavo José de. "FGSCM : uma abordagem de omissão de lock transacional com granularidade fina na resolução de conflitos /." São José do Rio Preto, 2017. http://hdl.handle.net/11449/152117.

Full text
Abstract:
Orientador: Alexandro José Baldassin
Banca: Orlando de Andrade Figueiredo
Banca: Rodolfo Jardim de Azevedo
Resumo: Omissão de lock é uma técnica onde operações de aquisição e liberação de lock são omitidas (especulação) de forma a permitir que regiões críticas compartilhando um mesmo lock possam executar concorrentemente, permitindo assim se explorar um nível maior de concorrência em programas que utilizam esse método popular de sincronização. Para se manter o princípio de atomicidade, as modificações no estado do programa realizadas pela região crítica são mantidas em um buffer interno e são efetivadas apenas ao fim da mesma. Em caso de inconsistências, diferentes políticas em como proceder são possíveis, o que diferencia as diversas abordagens de omissão de lock encontradas na literatura. Por exemplo, a abordagem original, Speculative Lock Elision (SLE), que é implementada no nível microarquitetural, recorre a adquirir o lock de forma tradicional quando uma especulação falha. Em algumas situações, esta política conservadora acaba por restringir o ganho em desempenho originalmente pretendido por impor um volume de sincronização desnecessário (lemming effect). Uma forma de superar tal limitação é o emprego de omissão de lock transacional (Transactional Lock Elision, em inglês), onde a especulação de regiões críticas se dá por meio de transações e o controle de execução é devolvido ao software em eventos de transações abortadas, o que permite que diferentes estratégias sejam empregadas com o objetivo de permitir execução concorrente mesmo em presença de falha de especulação. Neste contexto...
Abstract: Lock elision is a technique that omits acquire/release lock operations (speculation) so as to allow critical regions sharing the same lock to run concurrently, which yields a higher level of concurrency explored by programs that use such popular synchronization mechanism. In order to honor atomicity, modifications on the program's state made by the critical regions are kept in an internal buffer and only applied at the end of the speculation. If inconsistency is found, different policies on how to proceed are possible, which make up the several existing approaches found in the literature. As an example, the original one, namely Speculative Lock Elision (SLE), which is implemented at the level of microarchitecture, falls back to acquire the lock in a standard manner when there is speculation error. In some situations, such conservative policy ends up restricting the intended performance gains due to the unnecessary synchronization imposed (lemming effect). A way to address this issue is through Transactional Lock Elision (TLE) techniques, in which speculation of critical regions is done by means of transactions and execution control is passed back to software on abort events, which makes possible the use of different strategies to allow concurrent execution even in presence of speculation error. In this context, one possible approach is called Software-assisted Conflict Management (SCM), where an auxiliary lock is used to serialize aborted transactions and, as such, keep the original one free, so that others may proceed on their execution. The work presented in this document proposes an extension of SCM, called Fine-grained Software-assisted Conflict Management (FGSCM), where multiple auxiliary locks are applied in order to allow transactions aborted due to conflict on different regions of memory to be executed concurrently. The proposed algorithm was implemented by using ...
Mestre
APA, Harvard, Vancouver, ISO, and other styles
5

Nassif, Lilian Noronha. "Seleção distribuída de recursos em grades computacionais usando raciocínio baseado em casos e políticas de granularidade fina." Universidade Federal de Minas Gerais, 2006. http://hdl.handle.net/1843/RVMR-6TCNPP.

Full text
Abstract:
One of the main functionalities for virtualization service on grid computing is suitable resource selection for job execution. Resource brokers provide this functionality. Resource selection on current brokers still presents challenges for achieving the best solution in the decision-making process, especially when considering many factors. In our work, the user decides the resource selection in grid computing. We approach this problem considering user preference for specific resource selection objectives such as expected performance for an application execution, resource access restriction, execution application cost, and resource reliability. For each objective, we employ different techniques and combine them in a decision theory model. By considering performance in the selection process, we use the case-based reasoning technique based on similar past job executions to predict a new job time execution. In this prediction model, we develop a new case retrieval algorithm for flat memories, which is based on relevant sequence and geometric distance for case attributes. Results show that our prediction model is accurate and efficient in the prediction process. The case retrieval algorithm also presents better performance than other approaches as the case base increases. With the resource access restriction as a selection factor, we develop a fine-grain policy-based model for distributed resource access verification. Unlike a global access policy, which applies to all resources in a virtual organization, a fine-grain policy establishes rules for specific resources and users. In this case, a previous access restriction verification prevents a resource selection which may denies access to a requisition, resulting in an unsuccessful submission. In addition, the model developed is based on standard policies that avoid redundancy in access control management. Results show that our distributed model runs faster than centralized approaches and presents indexes analyzing the efficiency of each approach based on machines, requisitions, and access restrictions heterogeneities. We consider the resource cost in the selection process as an attribute in service level agreements between resources and users. By considering the resource reliability in the selection process, we use historical data from each execution in the environment, which register the job execution resource probability in the predicted time and with the negotiated cost. The decision model is completely formalized using the multi-attribute utility theory, which relates the important objectives above and allows different proportions of user preferences for each objective. The complete solution is distributed and implemented using a multiagent system, acting as a resource broker. All models of this thesis are analyzed in a real environment, presenting appropriate functional behaviors and positive performance results.
Uma das funcionalidades principais para virtualização do serviço de computação em grade é a seleção do recurso adequado para executar um job. Tal funcionalidade pode ser obtida com um broker de recursos. A seleção de recursos feita pelos brokers atuais ainda apresenta desafios para fazer a melhor escolha, principalmente quando são considerados muitos fatores. Neste trabalho, abordamos o problema de seleção de recursos em grades computacionais cujo decisor é o usuário. Lidamos com esse problema considerando a preferência do usuário por determinados objetivos na seleção de um recurso, tais como o desempenho esperado para executar uma aplicação, a restrição de acesso ao recurso, o custo de execução da aplicação no recurso e a confiabilidade do recurso. Para cada objetivo, utilizamos técnicas diferentes e as conjugamos em um modelo de teoria da decisão. Ao considerarmos o desempenho na seleção de um recurso, utilizamos a técnica de raciocínio baseado em casos, que leva em conta execuções passadas de jobs similares para prever o tempo de execução de um novo job. Nesse modelo de predição, desenvolvemos um novo algoritmo de recuperação de casos para memórias desestruturadas baseado em seqüência de relevância e distância geométrica dos atributos do caso. Resultados mostram que o nosso modelo de predição tem boa acurácia e eficiência no tempo para realizar uma predição. O algoritmo de recuperação de casos apresenta melhor desempenho que outras abordagens com o crescimento da base de casos. Ao considerarmos a restrição de acesso ao recurso como fator na seleção, desenvolvemos um modelo de verificação distribuída de restrições de acesso baseado em políticas de granularidade fina. Diferentemente das políticas globais que se aplicam a todos os recursos de uma organização virtual, as políticas de granularidade fina estabelecem regras específicas para recursos e usuários. Nesse caso, a verificação prévia evita a escolha de um recurso que não permitirá o acesso quando da submissão do job. Resultados mostram que o modelo distribuído de verificação de acesso executa mais rapidamente que abordagens centralizadas Ao considerarmos o custo na seleção, analisamos esse fator como um dos atributos de um acordo de nível de serviço estabelecido entre recursos e usuários. Ao considerarmos a confiabilidade do recurso na seleção, utilizamos dados históricos resultantes de cada execução no ambiente, que registra a probabilidade do recurso executar o job no prazo previsto e no custo negociado. O modelo de decisão é formalizado utilizando a teoria da utilidade multiatributo, que relaciona os objetivos acima mencionados e que expressa a preferência do usuário em proporções diferentes para cada objetivo. A solução completa é implementada de forma distribuída utilizando sistema multiagentes, que age como um broker de recursos. Todos os modelos da tese foram avaliados em um ambiente real, apresentando funcionamentos adequados e bons resultados de desempenho. PALAVRAS-CHAVE: Grade computacional, raciocínio baseado em casos, seleção de recursos, sistema multiagentes, teoria da decisão
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Granularidade fina"

1

De Castro, Ariel Góes, Francisco Vogt, Victor Hugo Lopes, Sérgio Rossi Da Silva, Arthur Lorenzon, Fabio Rossi, and Marcelo Caggiani Luizelli. "Análise do Desempenho de Heurísticas na Coleta de Informações de Telemetria In-Band." In XVII Escola Regional de Redes de Computadores. Sociedade Brasileira de Computação - SBC, 2019. http://dx.doi.org/10.5753/errc.2019.9210.

Full text
Abstract:
A telemetria in-band surgiu recentemente como uma alternativa ao monitoramento tradicional e permite encapsular informações de monitoramento com uma granularidade mais fina a partir do plano de dados permitindo aumentar o nível de visibilidade fornecido ao operador. Nesse sentido, pouco ainda foi feito para orquestrar a coleta de dados relacionados a telemetria in-band. Neste artigo, propõe-se duas heurísticas online para coletar informações de telemetria baseadas nas estratégias round-robin e least recently collected. Resultados mostram que as heurísticas projetadas conseguem coletar os dados de telemetria com 30% a mais de frequência e com maior uniformidade ao longo do tempo que as abordagens existentes.
APA, Harvard, Vancouver, ISO, and other styles
2

Marques, Jonatas Adilson, and Luciano Paschoal Gaspary. "Explorando Estratégias de Orquestração de Telemetria em Planos de Dados Programáveis." In Simpósio Brasileiro de Redes de Computadores e Sistemas Distribuídos. Sociedade Brasileira de Computação - SBC, 2018. http://dx.doi.org/10.5753/sbrc.2018.2495.

Full text
Abstract:
Á medida que as redes de computadores e as próprias aplicações evoluem, novos aspectos de monitoração e uma granularidade mais fina tornam-se importantes para identificar e caracterizar corretamente situações ligadas, por exemplo, ao balanceamento inadequado de carga e a micro-bursts. A telemetria no plano de dados surge, nesse contexto, como uma abordagem promissora para satisfazer essa demanda, permitindo a inserção de informações sobre o estado da rede diretamente em pacotes de produção trafegando pela rede. A telemetria habilita a monitoração com acurácia e precisão sem precedentes, mas também pode levar a uma degradação significativa do tráfego caso aplicada ingenuamente. Neste trabalho são propostas e avaliadas estratégias para a orquestração de telemetria no plano de dados que exploram os efeitos de se concentrar a carga de monitoração em um número pequeno de fluxos ou de se distribuí-la entre um número maior deles. Os resultados da avaliação demonstram que é possível obter boa qualidade em termos de cobertura, freshness e consistência com redução considerável de degradação do tráfego de produção.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography