Cadenas de Markov: Métodos cuantitativos para la toma de decisiones III

dc.date.accessioned2025-12-19T13:17:31Z
dc.date.available2016-01es
dc.date.issued2017-01-10
dc.description.abstractEsta obra forma parte de la colección Métodos cuantitativos para la toma de decisiones que, en su conjunto, permite resolver una amplia variedad de problemas. Cada volumen de esta colección desarrolla la técnica específica para tratar un tipo concreto de modelos. Este volumen introduce al lector en la aplicación de las cadenas de Markov, una técnica matemática creada para analizar sistemas aleatorios cuya evolución a lo largo del tiempo depende del estado o estados anteriores por los cuales haya pasado. Las cadenas de Markov permiten la posibilidad de influir en el comportamiento del sistema a través de la toma de decisiones con el fin de obtener un rendimiento óptimo. Este volumen está orientado a la aplicación de las cadenas de Markov para la resolución de problemas de empresas industriales y de servicios. Los contenidos de esta obra presentan las cadenas de Markov de forma didáctica y con una clara orientación práctica, con múltiples ejercicios y ejemplos ilustrativos. Estos contenidos están especialmente indicados para estudiantes de grado o de máster en ingenierías de los ámbitos industrial y de organización.
dc.description.sponsorship
dc.description.tableofcontentsPresentación de la obra 1. Introducción a los métodos cuantitativos 1.1 Concepto de modelo 1.2 Tipos de problemas 1.2.1 Problemas de inventarios (stocks) 1.2.2 Problemas de reparto 1.2.3 Problemas de secuencias 1.2.4 Problemas de colas 1.2.5 Problemas de renovación 1.2.6 Problemas de caminos 1.2.7 Problemas de competencia 1.2.8 Problemas de búsqueda 1.3 Métodos cuantitativos de tratamiento de los problemas 1.3.1 Métodos exactos 1.3.2 Métodos no exactos 1.4 Relación entre problemas y técnicas 1.5 Notación y conocimientos previos 2. Procesos polietápicos 2.1 Definición de proceso polietápico 2.2 Comparación con la programación lineal 2.3 Modelos polietápicos existentes 2.4 Introducción al cálculo recurrente 3. Conceptos básicos de las cadenas de Markov 3.1 Procesos markovianos 3.2 Cadenas de Markov 3.3 Modelización mediante las cadenas de Markov 3.4 Cadenas de orden 1 y de orden superior 4. Cadenas de Markov simples 4.1 Matriz de una cadena de Markov 4.1.1 Matrices de probabilidad de transición 4.1.2 Matrices estocásticas 4.1.3 Cadenas de orden superior 4.2 Probabilidades estacionarias y tipos de cadenas de Markov 4.2.1 Probabilidades de transición de k pasos. Teorema de Chapman-Kolmogorov 4.2.2 Probabilidades estacionarias 4.2.3 Cadenas ergódicas 4.2.4 Cadenas semiergódicas 4.2.5 Cadenas no ergódicas 4.2.6 Cadenas cíclicas 4.2.7 Clasificación de las cadenas de Markov 4.3 Análisis topológico de las cadenas de Markov 4.3.1 Propiedades de estado 4.3.2 Propiedades de clase 4.3.3 Periodicidad de una clase final 4.3.4 Clasificación de las cadenas a partir del análisis topológico 4.4 Análisis espectral 4.4.1 Propiedades del espectro de una matriz estocástica 4.4.2 Clasificación según el análisis espectral 4.4.3 Comparación entre los dos tipos de análisis 4.5 Significado de la clasificación 4.5.1 Significado de la ergodicidad 4.5.2 Significado de la periodicidad 4.6 Cálculo de las probabilidades estacionarias 4.6.1 Probabilidades estacionarias y comportamiento a largo plazo 4.6.2 Probabilidades estacionarias para las cadenas ergódicas y semiergódicas 4.6.3 Probabilidades estacionarias para las cadenas no ergódicas 4.6.4 Modelización con cadenas de Markov simples 5. Cadenas de Markov con remuneración 5.1 Introducción 5.2 Remuneración esperada a corto plazo 5.2.1 Iteración en el espacio de los estados 5.2.2 Normalización 5.3 Remuneración esperada a largo plazo 5.3.1 Paso del corto al largo plazo 5.3.2 Remuneración esperada a largo plazo en las cadenas regulares 5.3.3 Remuneración esperada en las cadenas cíclicas 5.3.4 Remuneración esperada en las cadenas no ergódicas 5.4 Duración del régimen transitorio 6. Cadenas de Markov con remuneración y decisión 6.1 Introducción 6.2 Procesos markovianos de decisión 6.3 Iteración en el espacio de los estados 6.4 Iteración en el espacio de las políticas 7. Problemas resueltos 7.1 Revisión de los conceptos teóricos 7.2 Un poco más de revisión de conceptos 7.3 Saratres Airlines 7.4 El servicio en el tenis 7.5 Tres elementos delicados 7.6 Embarcaciones de lujo 7.7 Mantenimiento 7.8 Cultivos rotativos Bibliografía Glosario
dc.description.version1ª Ediciónes
dc.formatLibro digital
dc.format.extentp. 143
dc.format.extent3.60 MB
dc.identifier.doi10.5821/ebook-9788498806113
dc.identifier.isbn9788498806113
dc.identifier.uries
dc.identifier.urihttps://une-dspace.glaux.es/handle/123456789/56543
dc.languageEspañoles
dc.publisherUniversitat Politècnica de Catalunya. Iniciativa Digital Politècnica
dc.relation.ispartofseriesUPCPostgraues
dc.relation.publisherurlhttps://hdl.handle.net/2117/96718
dc.rightsCreative Commons Attribution 4.0 International (CC BY 4.0)en
dc.rights.accessRightsopenAccessen
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/en
dc.subjectCIENCIAS SOCIALES Y JURÍDICAS::CIENCIAS EMPRESARIALES::Organización de Empresases
dc.subject.keywordses
dc.subject.otherToma de decisiones en la gestión de empresases
dc.titleCadenas de Markov: Métodos cuantitativos para la toma de decisiones III
dc.typees
dspace.entity.typePublication
relation.isOrgUnitOfPublication7ab8e686-23b8-4151-b0a8-ee9f9d70430d
relation.isOrgUnitOfPublication.latestForDiscovery7ab8e686-23b8-4151-b0a8-ee9f9d70430d
une.sellofalse
FECYT