Un acercamiento a problemas de paro óptimo vía programación dinámica
Date
2020
Authors
Journal Title
Journal ISSN
Volume Title
Publisher
Abstract
Los procesos de decisión o control Markovianos modelan sistemas dinámicos estocásticos, es decir, sistemas cuya evolución está sujeta a factores aleatorios y que puede modificarse por medio de la selección de ciertas variables de decisión o de control, dichos procesos son muy útiles en áreas como economía donde son usados para optimizar problemas de crecimiento económico [6]. El problema de control óptimo consiste en encontrar una política que optimice el criterio de rendimiento, el cual, en este caso será el criterio de costo total esperado, una política es una regla mediante la cual se elige una acción en cada punto de observación del proceso. Una manera de resolver un proceso de decisión de Markov es basándose en el principio de optimalidad de Bellman conocido como programación dinámica. Bellman [5] usa el nombre “proceso de decisión Markoviano” para referirse a un programa dinámico cuyo mecanismo de evolución es aleatorio y satisface una propiedad markoviana o de pérdida de memoria. El propósito del presente trabajo es dar una introducción breve y elemental a esta clase de procesos considerando modelos con espacio de estados finitos.”
Description
Keywords
Citation
Collections
Document Viewer
Select a file to preview:
Can't see the file? Try reloading