Academic literature on the topic 'Processos de decisió de Markov'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Processos de decisió de Markov.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Processos de decisió de Markov"

1

Pellegrini, Jerônimo, and Jacques Wainer. "Processos de Decisão de Markov: um tutorial." Revista de Informática Teórica e Aplicada 14, no. 2 (2007): 133–79. http://dx.doi.org/10.22456/2175-2745.5694.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Trindade, Anderson Laécio Galindo, Linda Lee Ho, and Roberto da Costa Quinino. "Controle on-line por atributos com erros de classificação: uma abordagem econômica com classificações repetidas." Pesquisa Operacional 27, no. 1 (2007): 105–16. http://dx.doi.org/10.1590/s0101-74382007000100006.

Full text
Abstract:
O procedimento de controle on-line de processos por atributos, proposto por Taguchi et al. (1989), consiste em amostrar um item a cada m produzidos e decidir, a cada inspeção, se houve ou não a redução da fração de itens conformes produzidos. Caso o item inspecionado for não conforme, pára-se o processo para ajuste. Como o sistema de inspeção pode estar sujeito a erros de classificação, desenvolve-se um modelo probabilístico que considera classificações repetidas e independentes do item amostrado em um sistema de controle com inspeção imperfeita. Utilizando-se as propriedades de uma cadeia de Markov ergódica, obtém-se uma expressão do custo médio do sistema de controle, que pode ser minimizada por três parâmetros: o intervalo entre inspeções; o número de classificações repetidas; e o número mínimo de classificações conformes (dentre as classificações repetidas), para julgar um item como conforme. Um exemplo numérico ilustra o procedimento proposto.
APA, Harvard, Vancouver, ISO, and other styles
3

Soárez, Patrícia Coelho de, Marta Oliveira Soares, and Hillegonda Maria Dutilh Novaes. "Modelos de decisão para avaliações econômicas de tecnologias em saúde." Ciência & Saúde Coletiva 19, no. 10 (2014): 4209–22. http://dx.doi.org/10.1590/1413-812320141910.02402013.

Full text
Abstract:
A maioria das avaliações econômicas que participam dos processos de decisão de incorporação e financiamento de tecnologias dos sistemas de saúde utiliza modelos de decisão para avaliar os custos e benefícios das estratégias comparadas. Apesar do grande número de avaliações econômicas conduzidas no Brasil, há necessidade de aprofundamento metodológico sobre os tipos de modelos de decisão e sua aplicabilidade no nosso meio. O objetivo desta revisão de literatura é contribuir para o conhecimento e o uso de modelos de decisão nos contextos nacionais das avaliações econômicas de tecnologias em saúde. Este artigo apresenta definições gerais sobre modelos e preocupações com o seu uso; descreve os principais modelos: árvore de decisão, Markov, microssimulação, simulação de eventos discretos e dinâmicos; discute os elementos envolvidos na escolha do modelo; e exemplifica os modelos abordados com estudos de avaliação econômica nacionais de tecnologias preventivas e de programas de saúde, diagnósticas e terapêuticas.
APA, Harvard, Vancouver, ISO, and other styles
4

Whittle, P., and M. L. Puterman. "Markov Decision Processes." Journal of the Royal Statistical Society. Series A (Statistics in Society) 158, no. 3 (1995): 636. http://dx.doi.org/10.2307/2983459.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Smith, J. Q., and D. J. White. "Markov Decision Processes." Journal of the Royal Statistical Society. Series A (Statistics in Society) 157, no. 1 (1994): 164. http://dx.doi.org/10.2307/2983520.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Thomas, L. C., D. J. White, and Martin L. Puterman. "Markov Decision Processes." Journal of the Operational Research Society 46, no. 6 (1995): 792. http://dx.doi.org/10.2307/2584317.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Bäuerle, Nicole, and Ulrich Rieder. "Markov Decision Processes." Jahresbericht der Deutschen Mathematiker-Vereinigung 112, no. 4 (2010): 217–43. http://dx.doi.org/10.1365/s13291-010-0007-2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Wal, J., and J. Wessels. "MARKOV DECISION PROCESSES." Statistica Neerlandica 39, no. 2 (1985): 219–33. http://dx.doi.org/10.1111/j.1467-9574.1985.tb01140.x.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Thomas, L. C. "Markov Decision Processes." Journal of the Operational Research Society 46, no. 6 (1995): 792–93. http://dx.doi.org/10.1057/jors.1995.110.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Brooks, Stephen, and D. J. White. "Markov Decision Processes." Statistician 44, no. 2 (1995): 292. http://dx.doi.org/10.2307/2348465.

Full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Processos de decisió de Markov"

1

Pellegrini, Jerônimo. "Processo de decisão de Markov limitados por linguagem." [s.n.], 2006. http://repositorio.unicamp.br/jspui/handle/REPOSIP/276256.

Full text
Abstract:
Orientador: Jacques Wainer<br>Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação<br>Made available in DSpace on 2018-08-08T13:44:24Z (GMT). No. of bitstreams: 1 Pellegrini_Jeronimo_D.pdf: 889995 bytes, checksum: 1b9f02c9ce7815bf114b1b82de6df579 (MD5) Previous issue date: 2006<br>Resumo: Processos de decisão de Markov (MDPs) são usados para modelar situações onde é necessário executar ações em sequência em ambientes com incerteza. Este trabalho define uma nova formulação dos processos de decisão de Markov, adicionando a estes a possibilidade de restringir as ações e observações a serem consideradas a cada época de decisão. Estas restrições são descritas na forma de um autômato finito ? assim, a sequência de possíveis ações e observações consideradas na busca pela política ótima passa a ser uma linguagem regular. Chamamos estes processos de Markov limitados por linguagem (LLMDPs e LL-POMDPs). O uso de autômatos para a especificação de restrições facilita o processo de modelagem de problemas. Apresentamos diferentes abordagens para a solução destes problemas, e comparamos seus desempenhos, mostrando que a solução é viável, e mostramos também que em algumas situações o uso de restrições pode ser usado para acelerar a busca por uma solução. Além disso, apresentamos uma modificação nos LLPOMDPs de forma que seja possível especificar duração probabilística discreta para as ações e observações<br>Abstract: Markov decision processes (MDPs) are used to model situations where one needs to execute sequences of actions under uncertainty. This work defines a new formulation of Markov decision processes, with the possibility of restricting the actions and observations to be considered at each decision epoch. These restrictions are described as a finite automation, so the sequence of possible actions (and observations) considered during the search for an optimal policy is a regular language. We call these ?language limited Markov decision processes (LL-MDPs and LL-POMDPs). The use of automata for specifying restrictions helps make the modeling process easier. We present different approaches to solve these problems, and compare their performance, showing that the solution is feasible, and we also show that in some situations some restrictions can be used to speed up the search for a solution. Besides that, we also present one modification on LL-POMDPs to make it possible to specify probabilistic discrete duration for actions and observations<br>Doutorado<br>Sistemas de Informação<br>Doutor em Ciência da Computação
APA, Harvard, Vancouver, ISO, and other styles
2

Torres, João Vitor. "Representações compactas para processos de decisão de Markov e sua aplicação na adminsitração de impressoras." Universidade de São Paulo, 2006. http://www.teses.usp.br/teses/disponiveis/3/3152/tde-05092006-130307/.

Full text
Abstract:
Os Processos de Decisão de Markov (PDMs) são uma importante ferramenta de planejamento e otimização em ambientes que envolvem incertezas. Contudo a especificação e representação computacional das distribuições de probabilidades subjacentes a PDMs é uma das principais dificuldades de utilização desta ferramenta. Este trabalho propõe duas estratégias para representação destas probabilidades de forma compacta e eficiente. Estas estratégias utilizam redes Bayesianas e regularidades entre os estados e as variáveis. As estratégias apresentadas são especialmente úteis em sistemas onde as variáveis têm muitas categorias e possuem forte inter-relação. Além disso, é apresentada a aplicação destes modelos no gerenciamento de grupos de impressoras (um problema real da indústria e que motivou o desenvolvimento do trabalho) permitindo que estas atuem coletiva e não individualmente. O último tópico discutido é uma análise comparativa da mesma aplicação utilizando Lógica Difusa.<br>Markov Decision Processes (MDPs) are an important tool for planning and optimization in environments under uncertainty. The specification and computational representation of the probability distributions underlying MDPs are central difficulties for their application. This work proposes two strategies for representation of probabilities in a compact and efficient way. These strategies use Bayesian networks and regularities among states and variables. The proposed strategies are particularly useful in systems whose variables have many categories and have strong interrelation. This proposal has been applied to the management of clusters of printers, a real problem that in fact motivated the work. Markov Decision Processes are then used to allow printers to act as a group, and not just individually. The work also presents a comparison between MDPs and Fuzzy Logic in the context of clusters of printers.
APA, Harvard, Vancouver, ISO, and other styles
3

Eboli, Mônica Goes. "Transformação de redes de Petri coloridas em processos de decisão markovianos com probabilidades imprecisas." Universidade de São Paulo, 2010. http://www.teses.usp.br/teses/disponiveis/3/3152/tde-20082010-163351/.

Full text
Abstract:
Este trabalho foi motivado pela necessidade de considerar comportamento estocástico durante o planejamento da produção de sistemas de manufatura, ou seja, o que produzir e em que ordem. Estes sistemas possuem um comportamento estocástico geralmente não considerado no planejamento da produção. O principal objetivo deste trabalho foi obter um método que modelasse sistemas de manufatura e representasse seu comportamento estocástico durante o planejamento de produção destes sistemas. Como os métodos que eram ideais para planejamento não forneciam a modelagem adequada dos sistemas, e os com modelagem adequada não forneciam a capacidade de planejamento necessária, decidiu-se combinar dois métodos para atingir o objetivo desejado. Decidiu-se modelar os sistemas em rede de Petri e convertê-los em processos de decisão markovianos, e então realizar o planejamento com o ultimo. Para que fosse possível modelar as probabilidades envolvidas nos processos, foi proposto um tipo especial de rede de Petri, nomeada rede de Petri fatorada. Utilizando este tipo de rede de Petri, foi desenvolvido o método de conversão em processos de decisão markovianos. A conversão ocorreu com sucesso, conforme testes que mostraram que planos podem ser produzidos utilizando-se algoritmos de ponta para processos de decisão markovianos.<br>The present work was motivated by the need to consider stochastic behavior when planning the production mix in a manufacturing system. These systems are exposed to stochastic behavior that is usually not considered during production planning. The main goal of this work was to obtain a method to model manufacturing systems and to represent their stochastic behavior when planning the production for these systems. Because the methods that were suitable for planning were not adequate for modeling the systems and vice-versa, two methods were combined to achieve the main goal. It was decided to model the systems in Petri nets and to convert them into Markov decision processes, to do the planning with the latter. In order to represent probabilities in the process, a special type of Petri nets, named Factored Petri nets, were proposed. Using this kind of Petri nets, a conversion method into Markov decision processes was developed. The conversion is successful as tests showed that plans can be produced within seconds using state-of-art algorithms for Markov decision processes.
APA, Harvard, Vancouver, ISO, and other styles
4

Pla, Aragonés Lluís Miquel. "A Markov sow herd model for on-farm decision support." Doctoral thesis, Universitat de Lleida, 2001. http://hdl.handle.net/10803/8155.

Full text
Abstract:
El sector porquí Espanyol ha sofert recentment profuns canvis degut bàsicament a<br/>l'augment de la competència i al procés de globalització econòmica. Ademes, els<br/>avenços tecnológicos i el grau creixent d'especialització en el sector afavoreixen el<br/>desenvolupament i l'adopció de eienes avançades per a la pressa de decisions. En<br/>aquest context, l'objectiu d'aquesta Tesi ha estat formular i implementar un model<br/>dinàmic estocàstic del comportament productiu d'un remat de truges, basat en<br/>processos de decisió Markovians i capaç d'ésser utilitzat en condicions reals. La<br/>finalitat del model és representar alternatives de maneig reproductiu i de reposició en<br/>explotacins porcines per assistir als grangers, tècnics i gerents en la pressa de<br/>decisions en granja.<br/>El model de decisió semi-Markovià i el Markovià que s'en deriva del primer han<br/>demostrat ser models útils per la representació de les estratègies productives de<br/>maneig reproductiu i de la reposició. La disponibilitat de dades de camp de granges<br/>individuals ha permès la validació del model en situacions reals. La validació ha servit<br/>també per mostrar com el model no pot ser aplicat indiscriminadament a qualsevol<br/>granja, prèviament s'ha d'assegurar l'ajust del model a les condicions concretes de<br/>cada explotació. També s'ha ficat de manifest que quan el model s'utilitza per a<br/>calcular l'estructura de la població a l'equilibri no és necessari que la matriu de<br/>transició representi el pas de temps constant, la qual cosa ha permès treballar amb<br/>transicions associades als estats biològics que són més fàcils d'estimar (embedded<br/>Markov process), ademes, proporcionen estalvis computacionals que permeten una<br/>avaluado més ràpida d'alternatives de maneig reproductiu i la implementació<br/>d'algorismes d'optimització pel problema de la reposició més eficientes.<br/>La implementació del model de decisió semi-Markovià dins d'un sistema d'ajut a la<br/>pressa de decisions (DSS: Decision Support Systems) ha mostrat l'ús potencial del<br/>model en granja. El desenvolupament del DSS ha facilitat la disponibilitat d'un model<br/>complex com el presentat a potencials usuaris menys especialitzats. El DSS permet al<br/>granger avaluar a peu de granja diferentes alternatives productives, analitzar la<br/>sensibilitat dels paràmetres que consideri crítics i optimitzar la política de reposició.<br/>Ademes, la integració del DSS en un sistema de gestió informatitzat (BDporc®2)<br/>facilita la difusió del DSS en empreses de producció porcina i també l'obtenció de<br/>noves variables com el número de serveis por monta, la detecció de zels, la detecció<br/>de la gestació, instalacions, etc, que poden ajudar a incrementar la precisió dels<br/>resultats. El disseny sofisticat del interface del DSS ha millorat la interpretació dels<br/>resultats del model que no sempre és inmediata. La incorporació de l'anàlisi de<br/>sensibilitat permet estudiar i profunditzar en els components crítics del model que<br/>sovint resulta més important que l'obtenció d'un resultat precis. Finalment, el model de<br/>remat formulat de forma flexible, és capaç d'adaptar-se a diferents propòsits amb<br/>canvis mínims, la qual cosa contribueix a una millor comprensió dels efectes de<br/>diferentes alternatives de maneig reproductiu sobre la millora de la eficiència<br/>econòmica de tot el sistema productiu.<br>El sector porcino en España ha sufrido recientemente profundos cambios debido<br/>básicamente al aumento de la competencia y al proceso de globalización económica.<br/>Además, los avances tecnológicos y el creciente grado de especialización en el sector<br/>favorecen el desarrollo y la adopción de herramientas avanzadas para la toma de<br/>decisiones. En este contexto, el objetivo de esta Tesis es presentar la formulación e<br/>¡mplementadón de un modelo dinámico estocástico del comportamiento productivo de<br/>un rebaño de cerdas, basado en procesos de decisión Markovianos y capaz de ser<br/>usado en condiciones reales. La finalidad del modelo es representar alternativas de<br/>manejo reproductivo y de reposición en explotacines porcinas para asistir a granjeros,<br/>técnicos y gerentes en la toma de decisiones en granja.<br/>El modelo de decisión semi-Markovianos y el Markoviano que deriva del primero han<br/>demostrado ser modelos útiles en la representación de las estrategias productivas de<br/>manejo reproductivo y de la reposición. La disponibilidad de datos de campo de<br/>granjas individuales ha permitido la validación del modelo en situaciones reales. La<br/>validación ha servido también para mostrar como el modelo no puede ser aplicado<br/>indiscriminadamente en cualquier granja, previamente se asegurar el ajuste del<br/>modelo a las condiciones concretas de cada explotación. También se ha puesto de<br/>manifiesto que cuando el modelo se utiliza para calcular la estructura de la población<br/>en equilibrio no es necesario que la matriz de transición represente de paso de tiempo<br/>constante, con lo cual ha sido posible trabajar con transiciones asociadas a los<br/>estados biológicas que son más fáciles estimar (embedded Markov process), además,<br/>proporcionan ahorros computacionales que permiten una evaluación más rápida de<br/>alternativas de manejo reproductivo y la implementación de algoritmos de optimización<br/>para el problema de la reposición más eficientes.<br/>La implementación del modelo de decisión semi-Markoviano dentro de un sistema de<br/>ayuda a la toma de decisiones (DSS: Decision Support Systems) ha mostrado el uso<br/>potencial del modelo en granja. El desarrollo del DSS ha facilitado la disponibilidad de<br/>un modelo complejo como el presentado a potenciales usuarios menos especializados.<br/>El DSS permite al granjero evaluar a pie de granja diferntes alternativas productivas,<br/>analizar la sensibilidad de los parámetros que considere críticos y optimiza la política<br/>de reposición. Además, la integración del DSS en un sistema de gestión informatizado<br/>(BDporc®3) facilita la difusión del DSS en empresas de producción porcina y también<br/>la obtención de nuevas variables como el número de servicios por monta, la detección<br/>de celos, la detección de la gestación, instalaciones, etc, que pueden ayudar a<br/>incrementar la precisión de los resultados. El diseño sofisticados del interface del DSS<br/>ha mejorado la interpretación de los resultados que no siempre es inmediata. El<br/>análisis de sensibilidad incorporado permite estudiar y profundizar en los componentes<br/>críticos del modelo que a menudo resulta más importante que el disponer de un<br/>resultado preciso. Finalmente, el modelo de rebaño formulado de forma flexible, es<br/>capaz de adaptarse a distintos propósitos con cambios mínimos, lo que redunda en<br/>una mejor compresión de los efectos de diferentes alternativas de manejo reproductivo<br/>a fin de mejorar la eficiencia económica de todo el sistema productivo.<br>Spanish pig sector has gone through a deep change during recent times, that is due<br/>basically to the increase in competitiveness and the globalisation process of the<br/>economics. Furthermore, technological advances and the increasing degree of<br/>specialisation have maden possible the development and adoption of advanced tools<br/>for decision support. In this context, the objective of this Thesis has been to formulate<br/>and implement a dynamic estochastic model representing the productive behaviour of<br/>a sow herd, based on Markov decision processes. The model was aimed to be used in<br/>field condicions to analyse different management alternatives on reproduction and<br/>replacement, supporting farm managers in the decision-making process.<br/>The semi-Markovià decision model and the derived Markov decision model (embedded<br/>Markov process) have demonstrated to be useful in the representation of management<br/>alternatives on reproduction and replacement. The availability of data from individual<br/>farms has allowed the validation of the model in real situations. The validation also has<br/>served to show how the model can not be applied indiscriminately on any farm.<br/>Previously, it has been required to assess the fit of the model in specific farm<br/>conditions. Also, it is shown that when the model has been used to calculate the<br/>population structure at equilibrium was not necessary a transition matrix being time<br/>step constant. Instead have been possible to consider transitions associated to<br/>biological states that are easier to estimate, more precise and provided computational<br/>time savings. Hence the model, as it was formulated, allowed a faster evaluation of<br/>management alternatives on reproduction and an efficient impleemntation of algorithms<br/>to optimise replacement policies.<br/>The implementation of the semi-Markov model into a DSS (DSS: Decision Support<br/>Systems) has shown the potential on-farm use of the model. The development of the<br/>DSS makes easier the availability of complex models to less specialised users. The<br/>DSS allows the farm manager to evaluate on-farm different management alternatives<br/>on reproduction and optimise replacement decisions. Moreover, the integration of the<br/>DSS in a management information system (BDporc®1) makes easier the spreading of it<br/>over swine enterprises, as well the obtention of new variables like the number of<br/>services by mating, heat detections, pregnancy detection, facilities, etc, can help to<br/>increment model precision. The sophisticated dessign of the DSS interface has<br/>improved the interpretation of the model results, that not always is right direct. The<br/>addition of sensitivity análisis capability provided insight about the impact of changes in<br/>critical components of the model, that quite often result in a more interest than a single<br/>precise result. Finally, the sow herd model formulated in a flexible way, was able to be<br/>adapted to différents goals with minimum changes, thus it contribute to improve the<br/>knowledge about the effect of different management alternatives on overall economic<br/>efficiency of the system.
APA, Harvard, Vancouver, ISO, and other styles
5

Delgado, Karina Valdivia. "Processos de decisão Markovianos fatorados com probabilidades imprecisas." Universidade de São Paulo, 2010. http://www.teses.usp.br/teses/disponiveis/45/45134/tde-28112010-095311/.

Full text
Abstract:
Em geral, quando modelamos problemas de planejamento probabilístico do mundo real, usando o arcabouço de Processos de Decisão Markovianos (MDPs), é difícil obter uma estimativa exata das probabilidades de transição. A incerteza surge naturalmente na especificação de um domínio, por exemplo, durante a aquisição das probabilidades de transição a partir de um especialista ou de dados observados através de técnicas de amostragem, ou ainda de distribuições de transição não estacionárias decorrentes do conhecimento insuficiente do domínio. Com o objetivo de se determinar uma política robusta, dada a incerteza nas transições de estado, Processos de Decisão Markovianos com Probabilidades Imprecisas (MDP-IPs) têm sido usados para modelar esses cenários. Infelizmente, apesar de existirem diversos algoritmos de solução para MDP-IPs, muitas vezes eles exigem chamadas externas de rotinas de otimização que podem ser extremamente custosas. Para resolver esta deficiência, nesta tese, introduzimos o MDP-IP fatorado e propomos métodos eficientes de programação matemática e programação dinâmica que permitem explorar a estrutura de um domínio de aplicação. O método baseado em programação matemática propõe soluções aproximadas eficientes para MDP-IPs fatorados, estendendo abordagens anteriores de programação linear para MDPs fatorados. Essa proposta, baseada numa formulação multilinear para aproximações robustas da função valor de estados, explora a representação fatorada de um MDP-IP, reduzindo em ordens de magnitude o tempo consumido em relação às abordagens não-fatoradas previamente propostas. O segundo método proposto, baseado em programação dinâmica, resolve o gargalo computacional existente nas soluções de programação dinâmica para MDP-IPs propostas na literatura: a necessidade de resolver múltiplos problemas de otimização não-linear. Assim, mostramos como representar a função valor de maneira compacta usando uma nova estrutura de dados chamada de Diagramas de Decisão Algébrica Parametrizados, e como aplicar técnicas de aproximação para reduzir drasticamente a sobrecarga computacional das chamadas a um otimizador não-linear, produzindo soluções ótimas aproximadas com erro limitado. Nossos resultados mostram uma melhoria de tempo e até duas ordens de magnitude em comparação às abordagens tradicionais enumerativas baseadas em programação dinâmica e uma melhoria de tempo de até uma ordem de magnitude sobre a extensão de técnicas de iteração de valor aproximadas para MDPs fatorados. Além disso, produzimos o menor erro de todos os algoritmos de aproximação avaliados.<br>When modeling real-world decision-theoretic planning problems with the framework of Markov Decision Processes(MDPs), it is often impossible to obtain a completely accurate estimate of transition probabilities. For example, uncertainty arises in the specification of transitions due to elicitation of MDP transition models from an expert or data, or non-stationary transition distributions arising from insuficient state knowledge. In the interest of obtaining the most robust policy under transition uncertainty, Markov Decision Processes with Imprecise Transition Probabilities (MDP-IPs) have been introduced. Unfortunately, while various solutions exist for MDP-IPs, they often require external calls to optimization routines and thus can be extremely time-consuming in practice. To address this deficiency, we introduce the factored MDP-IP and propose eficient mathematical programming and dynamic programming methods to exploit its structure. First, we derive eficient approximate solutions for Factored MDP-IPs based on mathematical programming resulting in a multilinear formulation for robust maximin linear-value approximations in Factored MDP-IPs. By exploiting factored structure in MDP-IPs we are able to demonstrate orders of magnitude reduction in solution time over standard exact non-factored approaches. Second, noting that the key computational bottleneck in the dynamic programming solution of factored MDP-IPs is the need to repeatedly solve nonlinear constrained optimization problems, we show how to target approximation techniques to drastically reduce the computational overhead of the nonlinear solver while producing bounded, approximately optimal solutions. Our results show up to two orders of magnitude speedup in comparison to traditional at dynamic programming approaches and up to an order of magnitude speedup over the extension of factored MDP approximate value iteration techniques to MDP-IPs while producing the lowest error among all approximation algorithm evaluated.
APA, Harvard, Vancouver, ISO, and other styles
6

Truzzi, Flávio Sales. "Modelagem e soluções para redes de anúncios." Universidade de São Paulo, 2014. http://www.teses.usp.br/teses/disponiveis/3/3141/tde-24042015-113950/.

Full text
Abstract:
Redes de Anúncios (Ad Networks) são redes que promovem a distribuição de anúncios pela internet, de forma a maximizar o lucro total gerado pela exibição dos anúncios nos websites. Estas redes tipicamente operam através do modelo de negócios chamado CPC (Custo por Clique), em que o anunciante paga um determinado valor somente se algum usuário clicar em seu anúncio. A escolha de como o intermediador planeja a distribuição dos anúncios aos websites é de extrema importância, já que a taxa de cliques nos anúncios é extremamente baixa. Atualmente a alocação dos anúncios tem sido feita através de uma solução aproximada baseada na alocação ótima definida com dados de um período anterior, a qual é calculada através de programação linear aliada à utilização de heurísticas. Entretanto, este sistema claramente é um processo de decisão sequencial em que diversas restrições são aplicáveis, como por exemplo: o orçamento dos anunciantes, limites mínimos do número de exibições de cada anúncio, categorias dos anúncios, entre outras. Neste trabalho argumenta-se que MDPs (Markov Decision Processes) fornecem uma melhor modelagem para o problema, já que conseguem levar em conta a dinâmica do sistema, considerando, por exemplo, que um anúncio que tem poucas chances de ser clicado consiga ser alocado de forma eficiente em relação ao retorno de longo prazo, mesmo quando outros anúncios proveriam um lucro maior a curto prazo. No entanto, devido ao grande número de estados, utilizar uma solução ótima através de MDPs é impraticável. Portanto analisa-se o desempenho relativo entre o estado da arte e a modelagem ótima, obtendo garantias de que a solução aproximada baseada em programação linear não está longe da solução ótima, e que em problemas grandes (similares aos encontrados na prática) essa diferença pode ser ignorada. Por fim, propõe-se uma modelagem baseada em aprendizado por reforço para a solução deste problema, utilizando duas abordagens, uma desconsiderando informações de contexto e outra considerando informações de contexto. Aqui argumenta-se que o uso de aprendizado por reforço é mais apropriado para a solução do problema de alocação de anúncios, já que ele é capaz de adaptar sua política de alocação em função das mudanças que ocorrem como, por exemplo, no perfil do usuário.<br>Ad Networks promote the distribution of ads in the internet, so as to maximize the revenue generated by their display of ads in websites. These networks typically operate using the CPC (Cost per Click) business model, where the advertiser pays a monetary value when a user clicks in its advertisement. The choice of how the Ad Network distributes ads to websites is of utmost importance, since the rate of clicks on ads is extremely low. The allocation of ads has been done by an approximate solution based on data from an early period of time, which is calculated using linear programming combined with heuristics. However, this problem is clearly a sequential decision process in which multiple sequential restrictions apply, such as: the budget of the advertisers, minimum limits on the number of views for each campaign, categories of advertisements. In this dissertation we argue that MDPs (Markov Decision Processes) provide a better model for the problem, since they can automatically take into account the dynamics of the system, considering, for example, an ad with little chance of being clicked can be allocated in an efficient way, even when other ads would provide a higher profit in the short term. However, due to the large number of states, an optimal solution through MDPs is impractical; therefore we analyze here the relative performance between the linear programming and the MDP approaches, deriving guarantees that the approximate solution based on linear programming is not far from the MDP optimal solution, and in large problems (similar to those found in practice) this difference can be disregarded. Finally, we propose a model based on reinforcement learning using two different approaches, one disregarding the contextual information, and the other using contextual information. We argue that the use of reinforcement learning is more suitable for solving the problem of allocation of ads, since it is able to adapt its allocation policy to reflect changes that occur, e.g., in the user profile.
APA, Harvard, Vancouver, ISO, and other styles
7

Santos, Felipe Martins dos. "Soluções eficientes para processos de decisão markovianos baseadas em alcançabilidade e bissimulações estocásticas." Universidade de São Paulo, 2013. http://www.teses.usp.br/teses/disponiveis/45/45134/tde-12022014-140538/.

Full text
Abstract:
Planejamento em inteligência artificial é a tarefa de determinar ações que satisfaçam um dado objetivo. Nos problemas de planejamento sob incerteza, as ações podem ter efeitos probabilísticos. Esses problemas são modelados como Processos de Decisão Markovianos (Markov Decision Processes - MDPs), modelos que permitem o cálculo de soluções ótimas considerando o valor esperado de cada ação em cada estado. Contudo, resolver problemas grandes de planejamento probabilístico, i.e., com um grande número de estados e ações, é um enorme desafio. MDPs grandes podem ser reduzidos através da computação de bissimulações estocásticas, i.e., relações de equivalência sobre o conjunto de estados do MDP original. A partir das bissimulações estocásticas, que podem ser exatas ou aproximadas, é possível obter um modelo abstrato reduzido que pode ser mais fácil de resolver do que o MDP original. No entanto, para problemas de alguns domínios, a computação da bissimulação estocástica sobre todo o espaço de estados é inviável. Os algoritmos propostos neste trabalho estendem os algoritmos usados para a computação de bissimulações estocásticas para MDPs de forma que elas sejam computadas sobre o conjunto de estados alcançáveis a partir de um dado estado inicial, que pode ser muito menor do que o conjunto de estados completo. Os resultados experimentais mostram que é possível resolver problemas grandes de planejamento probabilístico com desempenho superior às técnicas conhecidas de bissimulação estocástica.<br>Planning in artificial intelligence is the task of finding actions to reach a given goal. In planning under uncertainty, the actions can have probabilistic effects. This problems are modeled using Markov Decision Processes (MDPs), models that enable the computation of optimal solutions considering the expected value of each action when applied in each state. However, to solve big probabilistic planning problems, i.e., those with a large number of states and actions, is still a challenge. Large MDPs can be reduced by computing stochastic bisimulations, i.e., equivalence relations over the original MDP states. From the stochastic bisimulations, that can be exact or approximated, it is possible to get an abstract reduced model that can be easier to solve than the original MDP. But, for some problems, the stochastic bisimulation computation over the whole state space is unfeasible. The algorithms proposed in this work extend the algorithms that are used to compute stochastic bisimulations for MDPs in a way that they can be computed over the reachable set of states with a given initial state, which can be much smaller than the complete set of states. The empirical results show that it is possible to solve large probabilistic planning problems with better performance than the known techniques of stochastic bisimulation.
APA, Harvard, Vancouver, ISO, and other styles
8

Dias, Daniel Baptista. "Programação dinâmica em tempo real para processos de decisão markovianos com probabilidades imprecisas." Universidade de São Paulo, 2014. http://www.teses.usp.br/teses/disponiveis/45/45134/tde-21012015-083016/.

Full text
Abstract:
Em problemas de tomada de decisão sequencial modelados como Processos de Decisão Markovianos (MDP) pode não ser possível obter uma medida exata para as probabilidades de transição de estados. Visando resolver esta situação os Processos de Decisão Markovianos com Probabilidades Imprecisas (Markov Decision Processes with Imprecise Transition Probabilities, MDP-IPs) foram introduzidos. Porém, enquanto estes MDP-IPs se mostram como um arcabouço robusto para aplicações de planejamento no mundo real, suas soluções consomem muito tempo na prática. Em trabalhos anteriores, buscando melhorar estas soluções foram propostos algoritmos de programação dinâmica síncrona eficientes para resolver MDP-IPs com uma representação fatorada para as funções de transição probabilística e recompensa, chamados de MDP-IP fatorados. Entretanto quando o estado inicial de um problema do Caminho mais Curto Estocástico (Stochastic Shortest Path MDP, SSP MDP) é dado, estas soluções não utilizam esta informação. Neste trabalho será introduzido o problema do Caminho mais Curto Estocástico com Probabilidades Imprecisas (Stochastic Shortest Path MDP-IP, SSP MDP-IP) tanto em sua forma enumerativa, quanto na fatorada. Um algoritmo de programação dinâmica assíncrona para SSP MDP-IP enumerativos com probabilidades dadas por intervalos foi proposto por Buffet e Aberdeen (2005). Entretanto, em geral um problema é dado de forma fatorada, i.e., em termos de variáveis de estado e nesse caso, mesmo se for assumida a imprecisão dada por intervalos sobre as variáveis, ele não poderá ser mais aplicado, pois as probabilidades de transição conjuntas serão multilineares. Assim, será mostrado que os SSP MDP-IPs fatorados são mais expressivos que os enumerativos e que a mudança do SSP MDP-IP enumerativo para o caso geral de um SSP MDP-IPs fatorado leva a uma mudança de resolução da função objetivo do Bellman backup de uma função linear para uma não-linear. Também serão propostos algoritmos enumerativos, chamados de RTDP-IP (Real-time Dynamic Programming with Imprecise Transition Probabilities), LRTDP-IP (Labeled Real-time Dynamic Programming with Imprecise Transition Probabilities), SSiPP-IP (Short-Sighted Probabilistic Planner with Imprecise Transition Probabilities) e LSSiPP-IP (Labeled Short-Sighted Probabilistic Planner with Imprecise Transition Probabilities) e fatorados chamados factRTDP-IP (factored RTDP-IP) e factLRTDP-IP (factored LRTDP-IP). Eles serão avaliados em relação aos algoritmos de programação dinâmica síncrona em termos de tempo de convergência da solução e de escalabilidade.<br>In sequential decision making problems modelled as Markov Decision Processes (MDP) we may not have the state transition probabilities. To solve this issue, the framework based in Markov Decision Processes with Imprecise Transition Probabilities (MDP-IPs) is introduced. Therefore, while MDP-IPs is a robust framework to use in real world planning problems, its solutions are time-consuming in practice. In previous works, efficient algorithms based in synchronous dynamic programming to solve MDP-IPs with factored representations of the probabilistic transition function and reward function, called factored MDP-IPs. However, given a initial state of a system, modeled as a Stochastic Shortest Path MDP (SSP MDP), solutions does not use this information. In this work we introduce the Stochastic Shortest Path MDP-IPs (SSP MDP-IPs) in enumerative form and in factored form. An efficient asynchronous dynamic programming solution for SSP MDP-IPs with enumerated states has been proposed by Buffet e Aberdeen (2005) before which is restricted to interval-based imprecision. Nevertheless, in general the problem is given in a factored form, i.e., in terms of state variables and in this case even if we assume interval-based imprecision over the variables, the previous solution is no longer applicable since we have multilinear parameterized joint transition probabilities. In this work we show that the innocuous change from the enumerated SSP MDP-IP cases to the general case of factored SSP MDP-IPs leads to a switch from a linear to nonlinear objectives in the Bellman backup. Also we propose assynchronous dynamic programming enumerative algorithms, called RTDP-IP (Real-time Dynamic Programming with Imprecise Transition Probabilities), LRTDP-IP (Labeled Real-time Dynamic Programming with Imprecise Transition Probabilities), SSiPP-IP (Short-Sighted Probabilistic Planner with Imprecise Transition Probabilities) and LSSiPP-IP (Labeled Short-Sighted Probabilistic Planner with Imprecise Transition Probabilities), and factored algorithms called factRTDP-IP (factored RTDP-IP) and factLRTDP-IP (factored LRTDP-IP). There algorithms will be evaluated with the synchronous dynamic programming algorithms previously proposed in terms of convergence time and scalability.
APA, Harvard, Vancouver, ISO, and other styles
9

Filho, Ricardo Shirota. "Processos de decisão Markovianos com probabilidades imprecisas e representações relacionais: algoritmos e fundamentos." Universidade de São Paulo, 2012. http://www.teses.usp.br/teses/disponiveis/3/3152/tde-13062013-160912/.

Full text
Abstract:
Este trabalho é dedicado ao desenvolvimento teórico e algorítmico de processos de decisão markovianos com probabilidades imprecisas e representações relacionais. Na literatura, essa configuração tem sido importante dentro da área de planejamento em inteligência artificial, onde o uso de representações relacionais permite obter descrições compactas, e o emprego de probabilidades imprecisas resulta em formas mais gerais de incerteza. São três as principais contribuições deste trabalho. Primeiro, efetua-se uma discussão sobre os fundamentos de tomada de decisão sequencial com probabilidades imprecisas, em que evidencia-se alguns problemas ainda em aberto. Esses resultados afetam diretamente o (porém não restrito ao) modelo de interesse deste trabalho, os processos de decisão markovianos com probabilidades imprecisas. Segundo, propõe-se três algoritmos para processos de decisão markovianos com probabilidades imprecisas baseadas em programação (otimização) matemática. E terceiro, desenvolvem-se ideias propostas por Trevizan, Cozman e de Barros (2008) no uso de variantes do algoritmo Real-Time Dynamic Programming para resolução de problemas de planejamento probabilístico descritos através de versões estendidas da linguagem de descrição de domínios de planejamento (PPDDL).<br>This work is devoted to the theoretical and algorithmic development of Markov Decision Processes with Imprecise Probabilities and relational representations. In the literature, this configuration is important within artificial intelligence planning, where the use of relational representations allow compact representations and imprecise probabilities result in a more general form of uncertainty. There are three main contributions. First, we present a brief discussion of the foundations of decision making with imprecise probabilities, pointing towards key questions that remain unanswered. These results have direct influence upon the model discussed within this text, that is, Markov Decision Processes with Imprecise Probabilities. Second, we propose three algorithms for Markov Decision Processes with Imprecise Probabilities based on mathematical programming. And third, we develop ideas proposed by Trevizan, Cozman e de Barros (2008) on the use of variants of Real-Time Dynamic Programming to solve problems of probabilistic planning described by an extension of the Probabilistic Planning Domain Definition Language (PPDDL).
APA, Harvard, Vancouver, ISO, and other styles
10

Ferreira, L. A. "Programação em lógica não-monotônica aplicada à redução do espaço de planos em processos de decisão de Markov/." reponame:Biblioteca Digital de Teses e Dissertações da FEI, 2016. https://doi.org/10.31414/EE.2016.T.128438.

Full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Processos de decisió de Markov"

1

White, D. J. Markov decision processes. John Wiley & Sons, 1993.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Puterman, Martin L., ed. Markov Decision Processes. John Wiley & Sons, Inc., 1994. http://dx.doi.org/10.1002/9780470316887.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Filar, Jerzy, and Koos Vrieze. Competitive Markov Decision Processes. Springer New York, 1996. http://dx.doi.org/10.1007/978-1-4612-4054-9.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Filar, Jerzy. Competitive Markov Decision Processes. Springer New York, 1996.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Kolobov, Mausam, and Andrey Kolobov. Planning with Markov Decision Processes. Springer International Publishing, 2012. http://dx.doi.org/10.1007/978-3-031-01559-5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Boucherie, Richard J., and Nico M. van Dijk, eds. Markov Decision Processes in Practice. Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-47766-4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Feinberg, Eugene A., and Adam Shwartz, eds. Handbook of Markov Decision Processes. Springer US, 2002. http://dx.doi.org/10.1007/978-1-4615-0805-2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Guo, Xianping, and Onésimo Hernández-Lerma. Continuous-Time Markov Decision Processes. Springer Berlin Heidelberg, 2009. http://dx.doi.org/10.1007/978-3-642-02547-1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Piunovskiy, Alexey, and Yi Zhang. Continuous-Time Markov Decision Processes. Springer International Publishing, 2020. http://dx.doi.org/10.1007/978-3-030-54987-9.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Sigaud, Olivier, and Olivier Buffet, eds. Markov Decision Processes in Artificial Intelligence. John Wiley & Sons, Inc., 2013. http://dx.doi.org/10.1002/9781118557426.

Full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Book chapters on the topic "Processos de decisió de Markov"

1

Scheller-Wolf, Alan. "Markov Decision Processes." In Handbook of Healthcare Analytics. John Wiley & Sons, Inc., 2018. http://dx.doi.org/10.1002/9781119300977.ch14.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Sucar, Luis Enrique. "Markov Decision Processes." In Probabilistic Graphical Models. Springer London, 2015. http://dx.doi.org/10.1007/978-1-4471-6699-3_11.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Bonnans, J. Frédéric. "Markov Decision Processes." In Convex and Stochastic Optimization. Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-14977-2_7.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Garcia, Frédérick, and Emmanuel Rachelson. "Markov Decision Processes." In Markov Decision Processes in Artificial Intelligence. John Wiley & Sons, Inc., 2013. http://dx.doi.org/10.1002/9781118557426.ch1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Fürnkranz, Johannes, Philip K. Chan, Susan Craw, et al. "Markov Decision Processes." In Encyclopedia of Machine Learning. Springer US, 2011. http://dx.doi.org/10.1007/978-0-387-30164-8_512.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Feldman, Richard M., and Ciriaco Valdez-Flores. "Markov Decision Processes." In Applied Probability and Stochastic Processes. Springer Berlin Heidelberg, 2009. http://dx.doi.org/10.1007/978-3-642-05158-6_12.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Rao, Ashwin, and Tikhon Jelvis. "Markov Decision Processes." In Foundations of Reinforcement Learning with Applications in Finance. Chapman and Hall/CRC, 2022. http://dx.doi.org/10.1201/9781003229193-4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Chen, Kwang-Cheng. "Markov Decision Processes." In Artificial Intelligence in Wireless Robotics. River Publishers, 2022. http://dx.doi.org/10.1201/9781003337256-4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Hu, Michael. "Markov Decision Processes." In The Art of Reinforcement Learning. Apress, 2023. http://dx.doi.org/10.1007/978-1-4842-9606-6_2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Chang, Hyeong Soo, Jiaqiao Hu, Michael C. Fu, and Steven I. Marcus. "Markov Decision Processes." In Communications and Control Engineering. Springer London, 2013. http://dx.doi.org/10.1007/978-1-4471-5022-0_1.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Processos de decisió de Markov"

1

Saldi, Naci, Sina Sanjari, and Serdar Yüksel. "Quantum Markov Decision Processes." In 2024 IEEE 63rd Conference on Decision and Control (CDC). IEEE, 2024. https://doi.org/10.1109/cdc56724.2024.10886823.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Ma, Shuai, Li Xia, and Qianchuan Zhao. "State Entropy Optimization in Markov Decision Processes." In 2024 IEEE 20th International Conference on Automation Science and Engineering (CASE). IEEE, 2024. http://dx.doi.org/10.1109/case59546.2024.10711499.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Benvenuti, Alexander, Calvin Hawkins, Brandon Fallin, et al. "Differentially Private Reward Functions for Markov Decision Processes." In 2024 IEEE Conference on Control Technology and Applications (CCTA). IEEE, 2024. http://dx.doi.org/10.1109/ccta60707.2024.10666610.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Vila, Guillem Casadesus, and Grace Gao. "Markov Decision Processes for Scheduling Lunar PNT Services." In 37th International Technical Meeting of the Satellite Division of The Institute of Navigation (ION GNSS+ 2024). Institute of Navigation, 2024. http://dx.doi.org/10.33012/2024.19850.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Grabaskas, David, Yunfei Zhao, Carol Smidts, Vera Moiseytseva, Roberto Ponciroli, and Pascal Brocheny. "Markov Decision Processes for Intelligent, Risk-Informed Asset-Management Decision-Making." In Advanced Reactor Safety (ARS). American Nuclear Society, 2024. http://dx.doi.org/10.13182/t130-43354.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Gonzalez-Atienza, Miriam, Dries Vanoost, Mathias Verbeke, and Davy Pissoort. "Markov Decision Processes to Model Decision-making in Harsh Electromagnetic Environments." In 2024 International Symposium on Electromagnetic Compatibility – EMC Europe. IEEE, 2024. http://dx.doi.org/10.1109/emceurope59828.2024.10722465.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Freitas, Elthon, Karina Delgado, and Valdinei Silva. "Processos de decisão de Markov com sensibilidade a risco com função de utilidade exponencial: Uma revisão sistemática da literatura." In XIII Simpósio Brasileiro de Sistemas de Informação. Sociedade Brasileira de Computação, 2017. http://dx.doi.org/10.5753/sbsi.2017.6045.

Full text
Abstract:
Os processos de decisão de Markov (em inglês Markov Decision Process - MDP) têm sido usados com muita eficiência para resolução de problemas de tomada de decisão sequencial. Existem problemas em que lidar com os riscos do ambiente para obter um resultado confiável é mais importante do que maximizar o retorno médio esperado. MDPs que lidam com esse tipo de problemas são chamados de processos de decisão de Markov sensíveis a risco (em inglês Risk-Sensitive Markov Decision Process - RSMDP). Esta revisão sistemática da literatura tem por objetivo identificar os resultados teóricos e os algoritmos propostos para resolver problemas de RSMDP que tenham função utilidade exponencial, avaliando as suas principais características, semelhanças, particularidades e diferenças de modo a permitir ao leitor o conhecimento desta ferramenta de tomada de decisão sequencial para problemas sensíveis ao risco.
APA, Harvard, Vancouver, ISO, and other styles
8

Wotter, Renata G., Lucas T. B. Costa, Nelson de F. Traversi, Diana F. Adamatti, and Graçaliz P. Dimuro. "Um Jogo Dramático baseado na Teoria do Drama para Autorregulação de Processos de Trocas Sociais." In Workshop-Escola de Sistemas de Agentes, seus Ambientes e Aplicações. Sociedade Brasileira de Computação, 2016. https://doi.org/10.5753/wesaac.2016.33209.

Full text
Abstract:
Este artigo apresenta um modelo dramático para autorregulação de processos de trocas sociais, baseado nos conceitos da Teoria do Drama. O modelo possui cinco fases de resolução dramática, as quais envolvem sentimentos, emoções, confiança e reputação. Os agentes com diferentes estratégias de trocas sociais interagem uns com os outros, buscando melhorar a qualidade das interações, com o equilíbrio dos processos de trocas sociais. O objetivo é obter um modelo mais natural que os existentes na literatura, baseados em processos de decisão de Markov (parcialmente observáveis) ou em teoria de jogos, de modo que possa ser aplicado no mundo real. Busca-se interações multiagentes mais balanceadas e justas, aumentando o número de trocas sociais bem sucedidas e, assim, promover a continuidade das trocas sociais.
APA, Harvard, Vancouver, ISO, and other styles
9

Pais, Denis, Valdinei Freire, and Karina Valdivia-Delgado. "Algoritmo Exato de Avaliação de uma Política Estacionária para CVaR MDP." In Encontro Nacional de Inteligência Artificial e Computacional. Sociedade Brasileira de Computação - SBC, 2019. http://dx.doi.org/10.5753/eniac.2019.9341.

Full text
Abstract:
Processos de decisão Markovianos (Markov Decision Processes -- MDPs) são amplamente utilizados para resolver problemas de tomada de decisão sequencial. O critério de desempenho mais utilizado em MDPs é a minimização do custo total esperado. Porém, esta abordagem não leva em consideração flutuações em torno da média, o que pode afetar significativamente o desempenho geral do processo. MDPs que lidam com esse tipo de problema são chamados de MDPs sensíveis a risco. Um tipo especial de MDP sensível a risco é o CVaR MDP, que inclui a métrica CVaR (Conditional-Value-at-Risk) comumente utilizada na área financeira. Um algoritmo que encontra a política ótima para CVaR MDPs é o algoritmo de Iteração de Valor com Interpolação Linear chamado CVaRVILI. O algoritmo CVaRVILI precisa resolver problemas de programação linear várias vezes, o que faz com que o algoritmo tenha um alto custo computacional. Neste trabalho, é proposto um algoritmo que avalia uma política estacionário para CVaR MDPs de custo constante e que não precisa resolver problemas de programação linear, esse algoritmo é chamado de PECVaR. Além disso, foram realizados experimentos usando o custo total esperado e o custo usando o algoritmo PECVaR de uma política neutra para inicializar o algoritmo CVaRVILI. Os resultados mostram que utilizando essas inicializações é possível diminuir o tempo de convergência do CVaRVILI na maioria dos casos.
APA, Harvard, Vancouver, ISO, and other styles
10

Mladenov, Martin, Craig Boutilier, Dale Schuurmans, Ofer Meshi, Gal Elidan, and Tyler Lu. "Logistic Markov Decision Processes." In Twenty-Sixth International Joint Conference on Artificial Intelligence. International Joint Conferences on Artificial Intelligence Organization, 2017. http://dx.doi.org/10.24963/ijcai.2017/346.

Full text
Abstract:
User modeling in advertising and recommendation has typically focused on myopic predictors of user responses. In this work, we consider the long-term decision problem associated with user interaction. We propose a concise specification of long-term interaction dynamics by combining factored dynamic Bayesian networks with logistic predictors of user responses, allowing state-of-the-art prediction models to be seamlessly extended. We show how to solve such models at scale by providing a constraint generation approach for approximate linear programming that overcomes the variable coupling and non-linearity induced by the logistic regression predictor. The efficacy of the approach is demonstrated on advertising domains with up to 2^54 states and 2^39 actions.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Processos de decisió de Markov"

1

Chang, Hyeong S., Michael C. Fu, and Steven I. Marcus. An Adaptive Sampling Algorithm for Solving Markov Decision Processes. Defense Technical Information Center, 2002. http://dx.doi.org/10.21236/ada438505.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Ma, Dye-Jyu, and Armand M. Makowski. Steering Policies for Markov Decision Processes Under a Recurrence Condition. Defense Technical Information Center, 1988. http://dx.doi.org/10.21236/ada454595.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Chang, Hyeong S., and Steven I. Marcus. Approximate Receding Horizon Approach for Markov Decision Processes: Average Award Case. Defense Technical Information Center, 2002. http://dx.doi.org/10.21236/ada438476.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Sadigh, Dorsa, Eric Kim, Samuel Coogan, S. S. Sastry, and Sanjt A. Seshia. A Learning Based Approach to Control Synthesis of Markov Decision Processes for Linear Temporal Logic Specifications. Defense Technical Information Center, 2014. http://dx.doi.org/10.21236/ada623517.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Marold, Juliane, Ruth Wagner, Markus Schöbel, and Dietrich Manzey. Decision-making in groups under uncertainty. Fondation pour une culture de sécurité industrielle, 2012. http://dx.doi.org/10.57071/361udm.

Full text
Abstract:
The authors have studied daily decision-making processes in groups under uncertainty, with an exploratory field study in the medical domain. The work follows the tradition of naturalistic decision-making (NDM) research. It aims to understand how groups in this high reliability context conceptualize and internalize uncertainties, and how they handle them in order to achieve effective decision-making in their everyday activities. Analysis of the survey data shows that uncertainty is thought of in terms of issues and sources (as identified by previous research), but also (possibly a domain-specific observation) as a lack of personal knowledge or skill. Uncertainty is accompanied by emotions of fear and shame. It arises during the diagnostic process, the treatment process and the outcome of medical decision making. The most frequently cited sources of uncertainty are partly lacking information and inadequate understanding owing to instability of information. Descriptions of typical group decisions reveal that the individual himself is a source of uncertainty when a lack of knowledge, skills and expertise is perceived. The group can serve as a source of uncertainty if divergent opinions in the decision making group exist. Three different situations of group decisions are identified: Interdisciplinary regular meetings (e.g. tumor conferences), formal ward meetings and ad hoc consultations. In all healthcare units concerned by the study, only little use of structured decision making procedures and processes is reported. Strategies used to handle uncertainty include attempts to reduce uncertainty by collecting additional information, delaying action until more information is available or by soliciting advice from other physicians. The factors which ultimately determine group decisions are hierarchy (the opinion of more senior medical staff carries more weight than that of junior staff), patients’ interest and professional competence. Important attributes of poor group decisions are the absence of consensus and the use of hierarchy as the predominant decision criterion. On the other hand, decisions judged to be effective are marked by a sufficient information base, a positive discussion culture and consensus. The authors identify four possible obstacles to effective decision making: a steep hierarchy gradient, a poor discussion culture, a strong need for consensus, and insufficient structure and guidance of group decision making processes. A number of intervention techniques which have been shown in other industries to be effective in improving some of these obstacles are presented.
APA, Harvard, Vancouver, ISO, and other styles
6

Icaran Díaz de Corcuera, Claudia, Usue Lorenz Erice, and Miren Estensoro García. Personas jóvenes y políticas urbanas: cómo facilitar la co-creación de políticas con el colectivo jóven. Universidad de Deusto, 2024. https://doi.org/10.18543/antk6555.

Full text
Abstract:
Esta publicación parte de los aprendizajes que investigadoras del equipo de Orkestra- Instituto Vasco de Competitividad han adquirido al facilitar un proceso de elaboración de políticas públicas urbanas en Barakaldo (País Vasco). Se trata de un proceso colaborativo en el que, junto a personas jóvenes del municipio y a representantes políticos y personal técnico del municipio, las investigadoras han desarrollado una agenda reflexiva de políticas en el ámbito de la vivienda. Así mismo, para dar cuenta de los aprendizajes el cuaderno recoge: en primer lugar, las teorías y los marcos conceptuales de los que partimos; en segundo lugar, el contexto en el que se produce la elaboración de la agenda, en el marco del proyecto UPLIFT, financiado por el programa Horizonte 2020, así como en qué ha consistido y por último; una serie de elementos que, en nuestra opinión, han sido claves a la hora de facilitar este proceso. Estos son: espacio seguro y divertido, visión compartida, capacidad de decisión y corresponsabilidad, conocimiento sobre el contexto, la temática y de proceso y agenda compartida. Estos elementos han sido centrales en nuestra tarea y esperamos que trasladarlos en esta publicación pueda guiar y ser de ayuda para las y los profesionales del mundo académico, así como para el personal de las administraciones públicas que aspira a colaborar con personas jóvenes en la creación o modificación de políticas con la mirada puesta en generar procesos más abiertos y democráticos.
APA, Harvard, Vancouver, ISO, and other styles
7

Nitz, Peter, and Jürgen Fluch. Collection of available solar process heat related national and trans-national research and funding programs. IEA SHC Task 64, 2021. http://dx.doi.org/10.18777/ieashc-task64-2021-0001.

Full text
Abstract:
Within Task 64/IV Solar Process Heat, Subtask E Guideline to Market is aiming to support a wider penetration of solar thermal technologies in the supply of heating (and cooling) in industry, demonstrating Solar Heat for Industrial Processes (SHIP) to be an important contribution to the decarbonisation of the industrial sector. This requires not only to overcome technical and/or technological barriers, but it is crucial to also address on technical barriers. Whereas well suited system integration strategies, design tools, standardized procedures or modular components are all in all paramount for the development of reliable and prompt off the shelve solutions, experience shows that often non-technological barriers might have a critical role in the decision making process. Above all, competitiveness and investment/financing related barriers prove in many cases to be the bottleneck for the adoption of solar thermal technologies in the industrial framework.
APA, Harvard, Vancouver, ISO, and other styles
8

Pasupuleti, Murali Krishna. Decision Theory and Model-Based AI: Probabilistic Learning, Inference, and Explainability. National Education Services, 2025. https://doi.org/10.62311/nesx/rriv525.

Full text
Abstract:
Abstract Decision theory and model-based AI provide the foundation for probabilistic learning, optimal inference, and explainable decision-making, enabling AI systems to reason under uncertainty, optimize long-term outcomes, and provide interpretable predictions. This research explores Bayesian inference, probabilistic graphical models, reinforcement learning (RL), and causal inference, analyzing their role in AI-driven decision systems across various domains, including healthcare, finance, robotics, and autonomous systems. The study contrasts model-based and model-free approaches in decision-making, emphasizing the trade-offs between sample efficiency, generalization, and computational complexity. Special attention is given to uncertainty quantification, explainability techniques, and ethical AI, ensuring AI models remain transparent, accountable, and risk-aware. By integrating probabilistic reasoning, deep learning, and structured decision models, this research highlights how AI can make reliable, interpretable, and human-aligned decisions in complex, high-stakes environments. The findings underscore the importance of hybrid AI frameworks, explainable probabilistic models, and uncertainty-aware optimization, shaping the future of trustworthy, scalable, and ethically responsible AI-driven decision-making. Keywords Decision theory, model-based AI, probabilistic learning, Bayesian inference, probabilistic graphical models, reinforcement learning, Markov decision processes, uncertainty quantification, explainable AI, causal inference, model-free learning, Monte Carlo methods, variational inference, hybrid AI frameworks, ethical AI, risk-aware decision-making, optimal control, trust in AI, interpretable machine learning, autonomous systems, financial AI, healthcare AI, AI governance, explainability techniques, real-world AI applications.
APA, Harvard, Vancouver, ISO, and other styles
9

Parra Torrado, Mónica, and María Angélica Arbeláez. Innovation, R&D Investment and Productivity in Colombian Firms. Inter-American Development Bank, 2011. http://dx.doi.org/10.18235/0011194.

Full text
Abstract:
This paper attempts to establish a formal relationship between innovation and productivity using Colombian firm-level data. It is found that the production of goods and services new to the firm and to the domestic market enhances firms' sales per worker, and innovation that results in introducing new goods and services to the international market boosts both sales and Total Factor Productivity (TFP). Innovation in processes likewise improves firms' productivity and sales. Finally, innovation in marketing and management increases sales per worker and enhances TFP when investment is made in Research and Development. The paper also studies the factors behind firms' decision to invest in innovation, the intensity of such investment and the returns to investment in innovation.
APA, Harvard, Vancouver, ISO, and other styles
10

Linares, Pedro, Natalia Collado-Van-Baumberghen, and Jorge Galindo. The European electricity market reform: an assessment & next steps. Esade EcPol, 2024. http://dx.doi.org/10.56269/20240115/pl.

Full text
Abstract:
The motivation behind the reform of the European electricity markets is therefore to create new incentives for the construction of generation capacity that will enable a more decisive move towards decarbonisation, while providing greater flexibility (both in terms of supply and demand) that can lead to greater price stability. However, although these goals are shared by all countries, the path towards them is not uniform at the outset due to the different energy and consumption mixes (industry and households). As a result, the outcome is far from the same and, in its current form,the reform of the European electricity market falls short in several important aspects. However, this reform should be seen as a first step, a process of reflection that creates the basis for further development. The ultimate goal should be the creation of a harmonised and long-term focused European electricity market.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!