If you're seeing this message, it means we're having trouble loading external resources on our website.

Si estás detrás de un filtro de páginas web, por favor asegúrate de que los dominios *.kastatic.org y *.kasandbox.org estén desbloqueados.

Contenido principal

El origen de las cadenas de Markov

Introducción a las cadenas de Markov. Creado por Brit Cruise.

¿Quieres unirte a la conversación?

¿Sabes inglés? Haz clic aquí para ver más discusiones en el sitio en inglés de Khan Academy.

Transcripción del video

Cuando observamos el mundo natural muchos de nosotros notamos una dicotomía algo hermosa. Ningún par de cosas son exactamente iguales, pero parecen imitar una forma subyacente. Platón creía que las verdaderas formas del universo estaban escondidas de nosotros. a través de la observación del mundo natural, podíamos adquirir un conocimiento aproximado de ellas. Eran planos escondidos. Las formas puras sólo eran accesibles a través del razonamiento abstracto de la filosofía y las matemáticas. Por ejemplo, el círculo que describió como el que tiene una distancia igual de su circunferencia a su centro en todos lados. Aún así nunca encontraremos una manifestación material de un círculo perfecto o una recta perfecta. Aunque interesantemente, Platón especuló que después de una cantidad incontable de años, el universo llegaría a un estado ideal, regresando a su forma perfecta. el enfoque platónico en las formas abstractas puras fue popular por siglos. No fue hasta el siglo 16 que la gente trató de aceptar la caótica variación en el mundo real y aplicó matemáticas para encontrar patrones subyacentes. Bernoulli refinó la idea de esperanza. Se enfocó en un método para estimar precisamente la probabilidad desconocida de cierto evento basado en el número de veces que este evento ocurre en ensayos independientes. Usó un ejemplo simple. Supón que sin tu conocimiento, 3,000 pierdas blancas y 2,000 pierdas negras se esconden en una urna, y eso para determinar la tasa de blancas contra negras por experimentación, sacas una piedra tras otra, con reemplazo, y anotas cuántas veces salió una piedra blanca contra una negra. El probó que el valor esperado de observaciones blancas contra negras convergerá a la tasa actual conforme el número de ensayos aumenta, conocido como la ley débil de los grandes números. Concluyó diciendo, "Si las observaciones de todos los eventos se continuaran hasta el infinito, se notaría que todo el en mundo está dominado por tasas precisas y una constante ley del cambio." Esta idea se extendió rápidamente y se notó que no solo las cosas convergían a un promedio esperado, si no que la probabilidad de que variaran de estos promedios también seguía una forma subyacente similar, o distribución. Un gran ejemplo de esto es la máquina de frijoles de Francis Galton. Imagina que cada choque es un simple evento independiente, tal como lanzar una moneda. Después de 10 colisiones o eventos, los frijoles caen en una cubeta representando la tasa de desviación hacia la izquierda contra la derecha, o cara contra cruz. Esto curvatura general, conocida como la distribución binomial, parece ser una forma ideal ya que seguía apareciendo en todos lados cada vez que veías la variación de un gran número de ensayos aleatorios. Parecía que el destino del promedio de estos eventos estaba de alguna manera predeterminado, hoy conocido como el teorema del límite central. Esta era una idea filosófica peligrosa para algunos. Pavel Nekrasov, originalmente un teólogo por entrenamiento, estudió después matemáticas y fue un fuerte defensor de la doctrina religiosa del libre albedrío. No le gustaba la idea de que tuviéramos este destino estadísticamente predeterminado. Hizo una aseveración famosa que la independencia es una condición necesaria para la ley de los grandes números, ya que la independencia sólo describe estos ejemplos de juguete usando frijoles o dados, donde le resultado de los eventod previos no cambia la probabilidad de los que ocurren en el futuro. Sin embargo, como todos podemos relacionarnos, muchas cosas en el mundo físico son claramente dependientes de resultados anteriores, tal como la probabilidad de fuego o sol o incluso nuestra esperanza de vida. Cuando la probabilidad de algún evento depende, o es condicional, de eventos previos, decimos que son eventos dependientes, o variables dependientes. Esta aseveración molestó a otro matemático ruso, Andrey Markov, que mantenía un animadversión pública hacia Nekrasov. Él dice en una carta que "Esta circunstancia me llevó a explicar en una serie de artículos que la ley de los grandes números se puede aplicar a variables dependientes", usando una construcción que él presume que Nekrasov ni podía soñar con ella. Markov extendió los resultados de Bernoulli a variables dependientes usando construcciones ingeniosas. Imagina un lanzamiento de moneda que no es independiente, pero depende del resultado anterior, entonces tiene memoria cora de un evento. Esto puede ser visualizado usando un máquina hipotética que contiene dos copas, que llamamos estados. En un estado tenemos una mezcla del 50-50 de cuentas blancas contra negras, mientras en el otro estado tenemos más negras que blancas. Una copa la podemos llamar el estado cero. Representa que ya ocurrió una cuenta negra, y el otro estado, lo podemos llamar uno, representa que ocurrió una cuenta blanca previamente. Para correr nuestra máquina, simplemente comenzamos en un estado aleatorio y hacemos una selección. Después nos movemos a alguno de los estados cero o uno, dependiendo de ese evento. Basado en el resultado de esa selección, decidimos cero si es oscura, o uno si es blanca. Con esta máquina de dos estados, podemos identificar 4 posibles transiciones. Si estamos en el estado cero y ocurre una blanca, vamos al mismo estado y seleccionamos de nuevo. Si una cuenta blanca es seleccionada, pasamos al estado uno, que también puede ir a él mismo, o brincar de regreso al estado cero si sale una negra. La probabilidad de una selección blanca contra una negra es claramente no independiente aquí, ya que depende del resultado anterior. Pero Markov probó que mientras cada estado en la máquina sea alcanzable, cuando corres estas máquinas en una secuencia, alcanzan el equilibrio. Esto es, no importa dónde comenzaste, una vez que comienzas la secuencia, el número de veces que pasas por cada estado converge a un radio específico, o a una probabilidad. Este es simple ejemplo contradijo la aseveración de Nekrasov que únicamente los eventos independientes pueden converger a distribuciones predecibles. Pero el concepto de modelar secuencias de eventos aleatorios usando estados y pasando entre estados se conoció como cadenas de Markov. Una de las primeras y más famosas aplicaciones de cadenas de Markov fue publicada por Claude Shannon.