Procesul Markov

În matematică , un proces Markov este un proces stochastic cu proprietatea Markov . Într-un astfel de proces, predicția viitorului din prezent nu este făcută mai precisă de informațiile despre trecut. Procesele Markov poartă numele inventatorului lor, Andrei Markov .

Un proces Markov în timp discret este o secvență de variabile aleatorii . Setul valorilor lor posibile se numește spațiu de stare , valoarea fiind starea procesului în momentul respectiv Conform autorilor, termenul „  lanț Markov  ” desemnează procesele Markov în timp discret sau numai procesele Markov în timp discret Procesul Markov în timp discret și spațiu de stare discret, adică procese Markov în timp discret al căror spațiu de stare este finit sau numărabil .

Dacă legea condițională a cunoașterii timpului trecut, adică cunoașterea este o funcție a singurului, atunci:

unde este orice stare a procesului. Identitatea de mai sus identifică probabilitatea markoviană .

Andrei Markov a publicat primele rezultate ale acestor procese în 1906 .

O generalizare a unui spațiu infinit numărabil de stat a fost dat de Kolmogorov în 1936 .

Procesele Markov sunt legate de mișcarea browniană și ipoteza ergodică , două teme ale fizicii statistice care au fost foarte importante la începutul XX - lea  secol.

Tipuri de procese Markov

Spațiu discret de stare

Când variabilele aleatorii succesive sunt variabile discrete echipate cu o funcție de probabilitate, vorbim despre un lanț Markov .

Deși lanțurile Markov se aplică fenomenelor al căror aspect temporal nu are în general niciun interes, se pot asocia valorile succesive cu instantele . Proprietatea markoviană conform căreia probabilitatea unei stări a sistemului depinde doar de starea sa anterioară printr-o probabilitate condițională numită probabilitate de tranziție este exprimată prin:

.

Un lanț Markov este definit în întregime de probabilitatea de ordinul întâi și probabilitatea de tranziție. De exemplu, obținem probabilitatea de ordinul doi prin:

.

Prin urmare, este definit și de probabilitatea de ordinul doi. În cele din urmă, poate fi definit de starea inițială și probabilitatea de tranziție.

Spațiu continuu de stare

Lanțurile Markov găsesc aplicații în cele mai diverse domenii, dar procesele luate în considerare în probleme dinamice, în special în vibrații, se referă în general la variabile aleatoare continue.

În aceste condiții, probabilitatea de a obține o valoare dată este în general zero și probabilitățile de apariție trebuie înlocuite cu densități de probabilitate în formula proprietății markoviene:

Timp discret și timp continuu

Considerațiile de mai sus rămân valabile dacă intervalele de timp devin infinit de mici. Această remarcă este deosebit de interesantă în cazul unei ecuații diferențiale . Dacă este de ordinul întâi, setarea diferenței finite relevă un mecanism markovian. Pentru ordinele superioare și sistemele diferențiale, descompunerea în ecuații de ordinul întâi duce la un sistem markovian cu mai multe dimensiuni.

Proprietățile proceselor Markov în timp discret

Un proces Markov se caracterizează prin distribuția condiționată:

care se mai numește și probabilitatea de tranziție a unei etape de proces. Probabilitatea de tranziție pentru doi , trei sau mai mulți pași este dedusă din probabilitatea de tranziție a unui pas și din proprietatea Markov:

De asemenea,

Aceste formule sunt generalizate într-un viitor arbitrar îndepărtat prin multiplicarea probabilităților de tranziție și integrarea timpilor.

Legea distribuției marginale este legea distribuției statelor în timp . Distribuția inițială este . Evoluția procesului după un pas este descrisă de:

Aceasta este o versiune a ecuației Frobenius-Perron . Pot exista una sau mai multe distribuții de stat, cum ar fi:

unde este un nume arbitrar pentru variabila de integrare. O astfel de distribuție se numește distribuție staționară . O distribuție staționară este o funcție proprie a legii distribuției condiționate, asociată cu valoarea proprie 1.

În cazul lanțurilor Markov de spațiu discret, anumite proprietăți ale procesului determină dacă există sau nu o distribuție staționară și dacă este unică sau nu.

Când spațiul de stare al unui lanț Markov nu este ireductibil, acesta poate fi partiționat într-un set de clase comunicante ireductibile. Problema clasificării este importantă în studiul matematic al lanțurilor Markov și al proceselor stochastice .

Dacă un lanț Markov are cel puțin o stare recurentă pozitivă, atunci există o distribuție staționară.

Dacă un lanț Markov este recurent pozitiv și ireductibil, atunci:

Deci, media unei funcții peste instanțele lanțului Markov este egală cu media sa în funcție de distribuția sa staționară:

Acest lucru este valabil mai ales atunci când funcția de identitate este.

Media valorii instanțelor este, prin urmare, pe termen lung, egală cu așteptările distribuției staționare.

Mai mult, această echivalență asupra mijloacelor se aplică și dacă este funcția indicator a unui subset al spațiului de stare:

unde este măsura indusă de .

Acest lucru permite distribuția staționară să fie aproximată printr-o histogramă a unei anumite secvențe.

Dacă spațiul de stare este finit , atunci distribuția probabilității poate fi reprezentată printr-o matrice stocastică numită matrice de tranziție , al cărei al treilea element este:

Aplicații

Vezi și tu

Articole similare

Bibliografie

linkuri externe