miércoles, 23 de octubre de 2013

Matriz Ergódica & Absorvente

ANDRÉI MARKOV
Matemático y lingüista nacido en Ryazan, Rusia. Estudió y se doctoró en la Universidad de San Petersburgo, donde comenzó su labor docente en 1886. Es a comienzos del siglo XX cuando da continuidad a los estudios de su maestro Pafnuty Chebyshev sobre los cálculos matemáticos de la lógica de la probalidad. So obra tuvo continuidad en su hijo, de igual nombre que él, Andrei Markov (1903-1979). Falleció en San Petersburgo en 1922.
Estudió, entre otros muchos aspectos, las construcciones lingüísticas a partir del cálculo matemático (1913). Así, por ejemplo, analizó la novela de Puschkin Eugenio Oniegui, y dedujo que las letras del alfabeto cirílico, como las de cualquier otro alfabeto, iban apareciendo relacionadas con las que las precedían en la escritura. La nueva letra está determinada por la anterior, pero es independiente de la manera en la que aparece respecto de las anteriores... Existe, pues, una continuidad predecible, en la medida que una serie de caracteres permite anticipar la probabilidad de otra sucesión de caracteres. Marvok aplicó los cálculos probabilistas a diversas esferas del conocimiento y de la ciencia. A las relaciones matemáticas probabilistas de las construcciones seriadas -un texto, por ejemplo- se las ha denominado los 'procesos de Markov' o 'cadenas de Markov', que Norbert Wiener estudió en profundidad para sus elaboraciones teóricas. Sus postulados están considerados como los antecedentes de la teoría matemática de la información. 
Entre otros campos de la investigación, el modelo de Markov está siendo aplicado al análisis tendencial o prospectivo del desarrollo tecnológico, como instrumento de cálculo de que un hecho ocurra. Para ello se utilizan dos factores probabilísticos: la secuencia de los hechos y el tiempo transcurrido entre acontecimientos sucesivos, esto es, la transición de estados y tiempo de permanencia en el estado.


CADENAS DE MARKOV
Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. “Recuerdan” el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.
En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.
El análisis de Markov, llamado así en honor de un matemático ruso que desarrollo el método en 1907, permite encontrar la probabilidad de que un sistema se encuentre en un estado en particular en un momento dado. Algo más importante aún, es que permite encontrar el promedio a la larga o las probabilidades de estado estable para cada estado. Con esta información se puede predecir el comportamiento del sistema a través del tiempo.
MATRIZ DE TRANSICIÓN
Esta es una matriz cuadrada, donde el número de renglones y de columnas será igual al de estados que tenga la cadena de Markov, siendo cada elemento de la matriz, la probabilidad de transición respectiva de pasar del estado que encabeza el renglón donde está ubicado el elemento hacia el estado encabezado por la columna.
Veamos un ejemplo:
El comportamiento de cambio de marca de los consumidores ha sido modelado como una cadena de Markov, para ayudar a desarrollar las estrategias de mercadotecnia.
A manera de ejemplo, observemos el comportamiento de cambio de marca descrito en la tabla 1 para una muestra de 250 consumidores de un producto.

El primer renglón indica que, de 80 personas que compraron la marca 1 en la semana 6, 72 volvieron a adquirirla en la semana 7, 4 prefirieron la marca 2 y 4 la marca 3. Sin embargo, nótese que 12 personas cambiaron la marca 2 por la marca 1 y 2 personas cambiaron la marca 3 por la marca 1. Así pues, para la marca 1, la pérdida de 8 clientes se compensó con creces por la conquista de 14 clientes. Entre la sexta y la séptima semanas, la marca 1 aumentó su participación en el mercado de 32% (80/250) a 34,4 % (86/250).
La matriz de probabilidades de transición para la tabla de contingencia es P:

MATRIZ ERGÓDICA
Una cadena de Markov es ergodica si todos sus estados son no nulos, no periódicos y recurrentes.
Las cadenas de Markov ergodicas cumplen la siguiente propiedad:
El límite lımn0 p(n)ij existe y es independiente del estado inicial i. Lo denominaremos πj.




MATRIZ ABSORVENTE











No hay comentarios.:

Publicar un comentario