Andrei Markov Andreevich nació 02 de junio 1856 en Riazán, Rusia. En sus primeros años, asistió a la escuela en San Petersburgo y fue un estudiante pobre en todo menos en matemáticas. Fue algo así como un rebelde, y esta cualidad se quedó con él hasta la edad adulta, causando muchos problemas con su gobierno y los compañeros.
Él era un estudiante menor de PL Chebyshev en la Universidad Petersburgo en 1874, y completó sus estudios allí en 1878. Recibió una medalla de oro de la universidad y se le pidió permanecer y convertirse en un académico de profesión. Cuando dejó la universidad de Chebyshev, Markov enseñó a sus cursos de probabilidad.
Markov fue elegido para ser miembro de la matemática "escuela" fundada por Chebyshev, de San Petersburgo de la Academia de Ciencias, en 1886. Se convirtió en miembro de pleno derecho en 1896 y se retiró de la Universidad (aunque continuó enseñando) en 1905. También fue uno de los primeros matemáticos que estaban siempre en busca de los usos prácticos de estadística y probabilidad, y tomó parte en los debates sobre el funcionamiento de algunos departamentos del gobierno y también la enseñanza de las matemáticas en las escuelas secundarias.
Markov fue uno de los más famosos discípulos de Chebyshev y sus ideas eran siempre tratando de representar la probabilidad como una ciencia matemática exacta y práctica, incluso antes de RA Fisher. Él y uno de los otros grandes estudiantes de Chebyshev, Liapunov, fueron muy centrado en las ideas de sus mentores. Markov, especialmente centrado en el método de movimientos. Su introducción de la cadena de Markov como un modelo para el estudio de variables aleatorias hecho enormes cantidades de investigación posible en los procesos estocásticos [un proceso estocástico es una familia o una colección de variables aleatorias indexadas por un proceso de parámetros también se le llama suerte o azar. Los índices comunes utilizados son el tiempo y el espacio para representar fenómenos aleatorios.] Se limita principalmente su trabajo a la investigación de la ley débil de números grandes (WLLN) y el teorema del límite central. Su motivación para la redacción de sus artículos la participación de las cadenas de Markov en primer lugar, para mostrar que el enfoque de Chebyshev a la ampliación de la ley débil de un gran número de sumas de variables aleatorias dependientes podría llevarse aún más lejos. En segundo lugar, y probablemente más aplicable, es una animosidad entre Markov y Nekrasov PA. En 1902, Nekrasov, dijo que no sólo "por parejas independencia" ceder el WLLN de acuerdo a las deducciones Chebychev, pero también afirmó, sin muchas pruebas y sin razón, que no sólo era suficiente pero necesaria para la WLLN de sostener. Markov, por supuesto, refutó este argumento (y correctamente) en sus papeles, y por lo tanto hizo una adversario de toda la vida Nekrasov. Al hacer todo esto, utiliza su propio nombre en las cadenas de Markov en el marco de los procesos.
Un uso práctico de sus matemáticas se encuentran en el uso de cadenas para su modelo de la alteración de las vocales y consonantes en ruso las obras literarias. También escribió un libro de texto de estadística y probabilidad, uno de los mejores de su tiempo. Su obra influyó en muchos otros famosos matemáticos y estadísticos, incluyendo SN Bernstein, Romanovsky VI, y Jerzy Neyman (quien tomó las estadísticas a un nivel nuevo y más práctico). Después de contribuir en gran medida a la teoría de números, análisis, cálculo de diferencias finitas, teoría de la probabilidad (con las cadenas de Markov), y las estadísticas, que murió en Petrogrado (San Petersburgo antes, ahora Leningrado), la URSS, el 20 de julio de 1922.
DEFINICION DE CADENAS DE MARKOV
Las cadenas de markok son una herramienta para analizar el comportamiento de determinados procesos estocásticos, estos procesos evolucionan de forma deterministica a lo largo del tiempo en torno a un conjunto de estados.
Las cadenas de markok son una herramienta para analizar el comportamiento de determinados procesos estocásticos, estos procesos evolucionan de forma deterministica a lo largo del tiempo en torno a un conjunto de estados.
En las cadenas de markov la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. " Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.
Una cadena de Markov, que recibe su nombre del matemático ruso Andrei Markov, es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. “ Recuerdan” el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.
En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.
En matemáticas, se define como un proceso estocástico discreto que cumple con la Propiedad de Markov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro.
Una cadena de Markov es una secuencia X1, X2, X3, … de variables aleatorias. El rango de estas variables, es llamado espacio estado, el valor de Xn es el estado del proceso en el tiempo n. Si la distribución de probabilidad condicional de Xn+1 en estados pasados es una función de Xn por sí sola, entonces:
Donde xi es el estado del proceso en el instante i. La identidad mostrada es la Propiedad de Markov.
http://www.edicionsupc.es/ftppublic/pdfmostra/OE03502M.pdf
APLICACIONES DE LAS CADENAS DE MARKOV
Las cadenas de markov se usan en muchos campos de la industria entre estos el reparto del mercado entre marcas, dinámica de las averías de máquinas para decidir politica de mantenimiento, evolución de una enfermedad, etc. Otra de las aplicaciones de las cadenas de markov es la administración : (Planeación de Personal)
El análisis de transición puede ser útil al planear satisfacer las necesidades de personal. Muchas firmas emplean trabajadores de diferentes niveles de clasificación dentro de la misma categoría de trabajo. Esto es común para personal de confianza, oficinistas, obreros calificados, no calificados y personal profesional. La firma debe tener el número de empleados en cada nivel de clasificación para proporcionar la oportunidad de promoción adecuada, cumplir con las habilidades necesarias para el trabajo y controlar la nómina. Una planeación de personal a largo plazo apropiada requiere que se considere el movimiento de personas tanto hacia arriba en el escalafón de clasificación como hacia afuera de la organización. El análisis de Markov puede ayudar en este esfuerzo de planeación.
El movimiento de personal a otras clasificaciones puede considerarse como una cadena de Markov. Se supone que hay tres clasificaciones; el grado 1 es la más baja. Además, los descensos se consideran raros y se omiten. El estado “salen” es absorbente, el cual incluye renuncias, ceses, despidos y muertes. Por supuesto, todos los empleados finalmente alcanzan este estado.
www.ulpgc.es/descargadirecta.php?codigo_archivo=14483 -