Cruz Suárez, Hugo AdánCRUZ SUAREZ, HUGO ADAN; 202875Domínguez Ríos, Erika Patricia2021-04-142021-04-142020https://hdl.handle.net/20.500.12371/12449Los procesos de decisión o control Markovianos modelan sistemas dinámicos estocásticos, es decir, sistemas cuya evolución está sujeta a factores aleatorios y que puede modificarse por medio de la selección de ciertas variables de decisión o de control, dichos procesos son muy útiles en áreas como economía donde son usados para optimizar problemas de crecimiento económico [6]. El problema de control óptimo consiste en encontrar una política que optimice el criterio de rendimiento, el cual, en este caso será el criterio de costo total esperado, una política es una regla mediante la cual se elige una acción en cada punto de observación del proceso. Una manera de resolver un proceso de decisión de Markov es basándose en el principio de optimalidad de Bellman conocido como programación dinámica. Bellman [5] usa el nombre “proceso de decisión Markoviano” para referirse a un programa dinámico cuyo mecanismo de evolución es aleatorio y satisface una propiedad markoviana o de pérdida de memoria. El propósito del presente trabajo es dar una introducción breve y elemental a esta clase de procesos considerando modelos con espacio de estados finitos.”pdfspaCIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRAProcesos estocásticosProcesos de MarkovProgramación dinámicaTeoría del controlOptimización matemáticaUn acercamiento a problemas de paro óptimo vía programación dinámicaTesis de licenciaturaopenAccess