Historia, presente y futuro
Para dar un ejemplo práctico, como la venta de computadoras, la computadora que compró puede haber costado decenas de miles de yuanes, pero ahora puede que solo valga unos pocos cientos de yuanes. Cuando vendemos una computadora, no pensamos en cuánto valía esa computadora. Pero sólo se considera el valor presente. Por ejemplo, con la propagación del virus de la influenza, la cantidad de personas infectadas con el virus en el futuro solo depende de la cantidad de personas actualmente infectadas con el virus y no tiene nada que ver con la cantidad histórica de personas infectadas con el virus. antes.
No importa el camino que llevó a este momento. Miles de caminos posibles desde el pasado se reducen a la realidad de este momento, y la única base para juzgar el futuro es este momento mismo.
¿Por qué el futuro es irrelevante para la historia en un proceso de Markov?
Por ejemplo, supongamos que sólo dedicas tu tiempo libre a hacer dos cosas, leer y jugar con tu teléfono móvil. Aquí, leer es un estado y jugar con los teléfonos móviles es otro estado.
Asumimos que la probabilidad de que cambies entre estos dos estados es fija. Suponiendo que estás estudiando, hay un 60% de posibilidades de que continúes leyendo y un 40% de posibilidades de que pases a jugar en tu teléfono móvil, suponiendo que estés jugando en tu teléfono móvil, hay un 90% de posibilidades de que juegues en tu teléfono móvil. seguir jugando y solo un 1% de posibilidades de que pases a estudiar. ?
Aquí se mencionan las cuatro premisas del proceso de Markov:
En primer lugar, el número de estados es limitado. Aquí solo hay dos estados: jugar con teléfonos móviles y leer libros;
En segundo lugar, la probabilidad de cambio de estado es fija, que se refiere a la probabilidad de que cambies a jugar con teléfonos móviles mientras lees, o que estás jugando con teléfonos móviles, la probabilidad de cambiar al aprendizaje es fija;
El tercero es la ergodicidad, es decir, todos los estados pueden aparecer;
Cuarto, es aperiódico, es decir. Es decir, no será un proceso único que comience una y otra vez.
Si las cuatro premisas del proceso de Markov son ciertas al mismo tiempo, entonces no importa cómo distribuyas tu tiempo leyendo libros y jugando en tu teléfono móvil al principio, no importa cuánto tiempo tarde y cuántas iteraciones se necesitan (se omite el proceso de cálculo) y al final solo hay un resultado:
Pasas el 80% de tu tiempo jugando con tu teléfono móvil y el 20% de tu tiempo leyendo.
Una vez que llegas aquí, no puedes salir. Calculando, el 80% del tiempo se dedica a jugar con el móvil y el 20% del tiempo a leer libros. En este momento, cuando pasas de jugar en tu teléfono a leer, 10 por 80 es igual a 8, y cuando pasas de leer a jugar en tu teléfono, 20 por 40 es igual a 8, lo que se cancela exactamente. Mientras se alcance este equilibrio, no habrá salida. ?
Aunque al principio dediques el 100% de tu tiempo a leer libros, terminarás pasando el 80% de tu tiempo jugando con tu teléfono móvil. ?
Mientras sea un proceso de Markov, ¿siempre terminará con un equilibrio estadístico único?
Es en este sentido que la historia es insignificante, porque no importa cuál sea el estado inicial, no importa qué intervenciones se hagan en el proceso, no importa cómo se desarrolle el camino, eventualmente caerás en el modelo. establece el equilibrio de largo plazo y se detiene allí. El futuro no tiene nada que ver con la historia, porque no importa cómo suceda la historia, el futuro ya está determinado. ?
Así que si quieres cambiar tu estado actual, la clave no es por dónde empezar, ni qué intervención hacer en el proceso.
Todo lo que tienes que hacer es cambiar la probabilidad de transición. ?
La probabilidad de transición es la probabilidad de continuar leyendo un libro o jugar en su teléfono móvil mientras estudia, y de continuar jugando o estudiando mientras juega en su teléfono móvil. Si estas dos probabilidades no cambian, no importa cuánto tiempo pases leyendo en primer lugar, no importa cuántas veces tomes el libro y lo leas en el proceso, seguirás cayendo en el mismo pozo. ?
Lo mismo se aplica a otras preguntas. ?
Por ejemplo, en la gestión de las emociones, entre la relajación y la ansiedad, si se quiere reducir la ansiedad, no basta con contar con unas vacaciones para recargar energías. El futuro no tiene nada que ver con la historia. Para reducir la ansiedad, debes poder relajarte más cuando estás relajado y deshacerte más de la ansiedad cuando estás ansioso. Tienes que cambiar las probabilidades de transición. ?
Si implementas las probabilidades de transición incorrectas, el proceso de Markov es tu enemigo natural; por el contrario, si implementas las probabilidades de transición correctas, el proceso de Markov es tu mejor impulsor.
No importa si el punto de partida es alto o bajo, o si el proceso es difícil, lo enviará paso a paso a su saldo.
¿Cuál es la probabilidad? Quizás sea un hábito. Sepa lo que quiere, contrólese y pase del saber al hacerlo.
Diez mil giros y vueltas deben haber venido de Xunzi. "Si quieres salir, tienes que entrar. Si quieres estar fresco, igual. Incluso si gira hacia el este, será como tu ambición. Así que un caballero debe mirar el agua cuando la ve. "
No importa dónde empieces, ya sea desde la montaña Tanggula o la montaña Kunlun, no importa cuántos giros y vueltas haya en el proceso, ya sean las nueve curvas del río Amarillo o las dieciocho. bahías del río Yangtze, donde fluyen los pasos submarinos solo está relacionado con el paso actual. El agua fluye hacia abajo con cada paso, por lo que eventualmente fluye hacia el este hacia el mar. ?
No importa cómo fue tu pasado, el futuro sólo está relacionado con tus esfuerzos actuales. ?
Terminando con una frase del amigo de Luo Zhenyu 2021:?