Aproximación vía Q-Learning en problemas de consumo-inversión
dc.audience | generalPublic | es_MX |
dc.contributor | Cruz Suárez, Hugo Adán | |
dc.contributor.advisor | CRUZ SUAREZ, HUGO ADAN; 202875 | |
dc.contributor.author | López Ríos, Ruy Alberto | |
dc.creator | LOPEZ RIOS, RUY ALBERTO; 660007 | |
dc.date.accessioned | 2021-11-04T22:08:11Z | |
dc.date.available | 2021-11-04T22:08:11Z | |
dc.date.issued | 2021-08-25 | |
dc.description.abstract | “El control óptimo estocástico es un área de las matemáticas dedicada a resolver problemas de optimización cuya evolución en el tiempo es susceptible a ser influenciado por variables aleatorias. Los procesos de control de Markov (PCM) son problemas de control estocástico, también conocidos como procesos de decisión de Markov, procesos de Markov controlados. Los PCM aparecen en muchos campos, por ejemplo, ingeniería, economía, investigación de operaciones, estadística, administración de recursos, control de epidemias, etc. La técnica básica para resolver problemas de control de Markov es la programación dinámica, técnica creada por Richard Bellman en 1953, con el propósito de optimizar problemas complejos que pueden ser sincretizados y secuencializados. Sin embargo, se complica su utilidad al trabajar con espacios de inter ́es de grandes dimensiones, en la literatura esto se conoce como maldición de la dimensionalidad. Machine learning es el estudio de algoritmos computacionales que automáticamente mejoran a través de la experiencia. Los algoritmos machine learning construyen un modelo matemático sobre datos muestrales, conocido como training data, para hacer predicciones o tomar decisiones sin ser explícitamente programado para ello”. | es_MX |
dc.folio | 20210830164824-3967-T | es_MX |
dc.format | es_MX | |
dc.identificator | 1 | es_MX |
dc.identifier.uri | https://hdl.handle.net/20.500.12371/15004 | |
dc.language.iso | spa | es_MX |
dc.matricula.creator | 217570761 | es_MX |
dc.publisher | Benemérita Universidad Autónoma de Puebla | es_MX |
dc.rights.acces | openAccess | es_MX |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/4.0 | es_MX |
dc.subject.classification | CIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA | es_MX |
dc.subject.lcc | Teoría del control estocástico | es_MX |
dc.subject.lcc | Optimización matemática--Programas para computadora | es_MX |
dc.subject.lcc | Procesos de Markov--Modelos matemáticos | es_MX |
dc.subject.lcc | Programación dinámica | es_MX |
dc.subject.lcc | Aprendizaje por refuerzo | es_MX |
dc.thesis.career | Doctorado en Ciencias (Matemáticas) | es_MX |
dc.thesis.degreediscipline | Área de Ingeniería y Ciencias Exactas | es_MX |
dc.thesis.degreegrantor | Facultad de Ciencias Físico Matemáticas | es_MX |
dc.title | Aproximación vía Q-Learning en problemas de consumo-inversión | es_MX |
dc.type | Tesis de doctorado | es_MX |
dc.type.conacyt | doctoralThesis | es_MX |
dc.type.degree | Doctorado | es_MX |
Files
Original bundle
1 - 2 of 2
Loading...
- Name:
- 20210830164824-3967-T.pdf
- Size:
- 1.18 MB
- Format:
- Adobe Portable Document Format
- Description:
- Name:
- 20210830164824-3967-CARTA.pdf
- Size:
- 357.12 KB
- Format:
- Adobe Portable Document Format
- Description:
License bundle
1 - 1 of 1
- Name:
- license.txt
- Size:
- 1.71 KB
- Format:
- Item-specific license agreed upon to submission
- Description: