Sommario:
Definizione - Cosa significa Markov Chain?
Una catena di Markov è un processo matematico che passa da uno stato all'altro all'interno di un numero finito di stati possibili. È una raccolta di diversi stati e probabilità di una variabile, in cui la sua condizione o stato futuro dipende sostanzialmente dal suo stato precedente immediato.
Una catena Markov è anche nota come catena Markov a tempo discreto (DTMC) o processo Markov.
Techopedia spiega Markov Chain
Le catene di Markov sono principalmente utilizzate per prevedere lo stato futuro di una variabile o di qualsiasi oggetto in base al suo stato passato. Applica approcci probabilistici nella previsione del prossimo stato. Le catene di Markov sono esposte usando grafici diretti, che definiscono lo stato attuale e passato e la probabilità di passare da uno stato all'altro.
Le catene di Markov hanno diverse implementazioni nell'informatica e nelle tecnologie Internet. Ad esempio, la formula PageRank (r) utilizzata dalla ricerca di Google utilizza una catena Markov per calcolare il PageRank di una determinata pagina Web. Viene anche utilizzato per prevedere il comportamento degli utenti su un sito Web in base alle preferenze o alle interazioni precedenti degli utenti con esso.