Filtru de particule
De Filtrele de particule , de asemenea , cunoscut sub numele de metodele Monte Carlo secvențiale , sunt tehnici sofisticate de estimare a modelelor bazate pe simulare .
Filtrele de particule sunt utilizate în general pentru estimarea rețelelor bayesiene și constituie metode „on-line” analoage metodelor Monte-Carlo de către lanțurile Markov care sunt metode „off-line” (deci a posteriori ) și adesea similare cu metodele de eșantionare preferențiale .
Dacă sunt proiectate corect, filtrele de particule pot fi mai rapide decât metodele lanțului Monte Carlo Markov. Ele sunt adesea o alternativă la filtrele Kalman extinse cu avantajul că, cu suficiente probe, se apropie de estimarea bayesiană optimă. Prin urmare, pot fi făcute mai precise decât filtrele Kalman. Abordările pot fi, de asemenea, combinate folosind un filtru Kalman ca propunere de distribuție pentru filtrul de particule.
Poartă
Obiectivul unui filtru de particule este de a estima densitatea posterioară a variabilelor de stare luând în considerare variabilele de observare. Filtrul de particule este conceput pentru un model Markov ascuns , unde sistemul constă din variabile ascunse și observabile. Variabilele observabile (procesul de observare) sunt legate de variabilele ascunse (proces de stare) printr-o formă funcțională cunoscută. De asemenea, sistemul dinamic care descrie evoluția variabilelor de stare este, de asemenea, cunoscut într-o manieră probabilistică.
Un filtru generic de particule estimează distribuția posterioară a stărilor ascunse folosind metoda de măsurare observațională. Luați în considerare un spațiu de stare prezentat în diagrama de mai jos
X0⟶X1⟶X2⟶X3⟶...seugnulal↓↓↓...Da0Da1Da2Da3...observlateuonu{\ displaystyle {\ begin {matrix} X_ {0} & \ longrightarrow & X_ {1} & \ longrightarrow & X_ {2} & \ longrightarrow & X_ {3} & \ longrightarrow & ... & signal \\\ downarrow && \ downarrow && \ downarrow && ... \\ Y_ {0} && Y_ {1} && Y_ {2} && Y_ {3} && ... & observation \ end {matrix}}}
Problema filtrării constă în estimarea secvențială a valorilor stărilor ascunse , luând în considerare valorile procesului de observare , în orice etapă .
Xk{\ displaystyle X_ {k}}
Da0,...,Dak{\ displaystyle Y_ {0}, ..., Y_ {k}}
k{\ displaystyle k}![k](https://wikimedia.org/api/rest_v1/media/math/render/svg/c3c9a2c7b599b37105512c5d570edc034056dd40)
Urmează toate estimările bayesiene ale densității posterioare . Metodologia filtrului de particule oferă o aproximare a acestor probabilități condiționate utilizând măsurarea empirică asociată cu un algoritm de tip genetic. Pe de altă parte, abordarea de eșantionare a metodei Monte-Carlo de Markov sau lanțurile de importanță ar modela posteriorul complet .
Xk{\ displaystyle X_ {k}}
p(Xk∣y0,y1,...,yk){\ displaystyle p (x_ {k} \ mid y_ {0}, y_ {1}, ..., y_ {k})}
p(X0,X1,...,Xk∣y0,y1,...,yk){\ displaystyle p (x_ {0}, x_ {1}, ..., x_ {k} \ mid y_ {0}, y_ {1}, ..., y_ {k})}![{\ displaystyle p (x_ {0}, x_ {1}, ..., x_ {k} \ mid y_ {0}, y_ {1}, ..., y_ {k})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6f53be1bd9174692e1d11354a1848c089f723a7f)
Modelul de observare a semnalului
Metodele de particule presupun adesea că și observațiile pot fi modelate în această formă:
Xk{\ displaystyle X_ {k}}
Dak{\ displaystyle Y_ {k}}![{\ displaystyle Y_ {k}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f232884d316da11fdb37493839c901bbd9397658)
-
X0,X1,...{\ displaystyle X_ {0}, X_ {1}, ...}
este un proces Markov pe (pentru unii ) care evoluează în funcție de densitatea probabilității de tranziție . Acest model este adesea scris sintetic caRdX{\ displaystyle \ mathbb {R} ^ {d_ {x}}}
dX⩾1{\ displaystyle d_ {x} \ geqslant 1}
p(Xk|Xk-1){\ displaystyle p (x_ {k} | x_ {k-1})}
Xk|Xk-1=Xk∼p(Xk|Xk-1){\ displaystyle X_ {k} | X_ {k-1} = x_ {k} \ sim p (x_ {k} | x_ {k-1})}
Cu o densitate de probabilitate inițială .p(X0){\ displaystyle p (x_ {0})}![{\ displaystyle p (x_ {0})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9104b98828667238759fe12361ff7ea7665e9e85)
- Observațiile iau valori într-un anumit spațiu de stare pe (pentru unii ) sunt independenți condiționat, cu condiția să fie cunoscuți. Cu alte cuvinte, fiecare depinde doar de . Mai mult, presupunem că o distribuție condiționată pentru date este absolut continuă și sintetic o avem
Da0,Da1,⋯{\ displaystyle Y_ {0}, Y_ {1}, \ cdots}
Rdy{\ displaystyle \ mathbb {R} ^ {d_ {y}}}
dy⩾1{\ displaystyle d_ {y} \ geqslant 1}
X0,X1,⋯{\ displaystyle X_ {0}, X_ {1}, \ cdots}
Dak{\ displaystyle Y_ {k}}
Xk{\ displaystyle X_ {k}}
Dak{\ displaystyle Y_ {k}}
Xk=Xk{\ displaystyle X_ {k} = x_ {k}}
Dak|Xk=yk∼p(yk|Xk){\ displaystyle Y_ {k} | X_ {k} = y_ {k} \ sim p (y_ {k} | x_ {k})}![{\ displaystyle Y_ {k} | X_ {k} = y_ {k} \ sim p (y_ {k} | x_ {k})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c7fc1a10d7a346bf492c794b3a3ce4d8bab80d03)
Un exemplu de sistem cu aceste proprietăți este:
Xk=g(Xk-1)+Wk{\ displaystyle X_ {k} = g (X_ {k-1}) + W_ {k}}
Dak=h(Xk)+Vk{\ displaystyle Y_ {k} = h (X_ {k}) + V_ {k}}
În cazul în care cele două și sunt secvențe independente reciproc cu funcția de densitate de probabilitate s și și cunoscute sunt funcții cunoscute. Aceste două ecuații pot fi considerate ecuații de spațiu de stare și seamănă cu ecuațiile de spațiu de stare pentru filtrul Kalman. Dacă funcțiile g și h din exemplul de mai sus sunt liniare și ambele și sunt gaussiene , filtrul Kalman găsește distribuția exactă a filtrului bayesian. În caz contrar, metodele bazate pe filtrul Kalman sunt o aproximare de ordinul întâi (EKF) sau o aproximare de ordinul doi (UKF în general, dar dacă distribuția de probabilitate este gaussiană, este posibilă o aproximare de ordinul trei).
Wk{\ displaystyle W_ {k}}
Vk{\ displaystyle V_ {k}}
g{\ displaystyle g}
h{\ displaystyle h}
Wk{\ displaystyle W_ {k}}
Vk{\ displaystyle V_ {k}}![{\ displaystyle V_ {k}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f43bfe96795a33589c12e1500b843f6268d35f2f)
Presupunerea că distribuția inițială și tranzițiile lanțului Markov sunt absolut continue în raport cu măsura Lebesgue pot fi relaxate. Pentru a proiecta un filtru de particule, trebuie doar să presupunem că putem preleva tranzițiile lanțului Markov și putem calcula probabilitatea funcției (a se vedea de exemplu descrierea selecției genetice a filtrului de particule prezentată mai jos). Ipoteza absolut continuă asupra tranzițiilor Markov servește doar pentru a deriva în mod informal (și destul de abuziv) diferite formule între distribuțiile posterioare utilizând regula lui Bayes pentru densitățile condiționale.
Xk-1→Xk{\ displaystyle X_ {k-1} \ rightarrow X_ {k}}
Xk,{\ displaystyle X_ {k},}
Xk↦p(yk|Xk){\ displaystyle x_ {k} \ mapsto p (y_ {k} | x_ {k})}
Xk{\ displaystyle X_ {k}}![{\ displaystyle X_ {k}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/33c25229c6989c235f9cbb7908331f6d01d0abfe)
Modelizare
Filtrele de particule presupun că stările și observațiile pot fi modelate după cum urmează:
Xk{\ displaystyle x_ {k}}
yk{\ displaystyle y_ {k}}![y_ {k}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4b2ab0248723a410cc2c67ce06ad5c043dcbb933)
- Secvența parametrilor formează un lanț Markov de prim ordin, astfel încât și cu o distribuție inițială .X0,X1,...{\ displaystyle x_ {0}, x_ {1}, \ dots}
Xk|Xk-1∼pXk|Xk-1(X|Xk-1){\ displaystyle x_ {k} | x_ {k-1} \ sim p_ {x_ {k} | x_ {k-1}} (x | x_ {k-1})}
p(X0){\ displaystyle p (x_ {0})}![p (x_0)](https://wikimedia.org/api/rest_v1/media/math/render/svg/9104b98828667238759fe12361ff7ea7665e9e85)
- Observațiile sunt independente condiționat, cu condiția să fie cunoscute. Cu alte cuvinte, fiecare observație depinde doar de parametru :y0,y1,...{\ displaystyle y_ {0}, y_ {1}, \ dots}
X0,X1,...{\ displaystyle x_ {0}, x_ {1}, \ dots}
yk{\ displaystyle y_ {k}}
Xk{\ displaystyle x_ {k}}
yk|Xk∼py|X(y|Xk){\ displaystyle y_ {k} | x_ {k} \ sim p_ {y | x _ {}} (y | x_ {k})}
Un exemplu al acestui scenariu este {Xk=f(Xk-1)+vkyk=h(Xk)+wk{\ displaystyle \ left \ {{\ begin {matrix} x_ {k} = f (x_ {k-1}) + v_ {k} \\ y_ {k} = h (x_ {k}) + w_ {k } \ end {matrix}} \ right.}
unde ambele și sunt secvențe reciproc independente și distribuite identic cu funcții de densitate de probabilitate cunoscute și unde și sunt funcții cunoscute. Aceste două ecuații pot fi văzute ca ecuații ale spațiului de stare și seamănă cu cele ale filtrului Kalman .
vk{\ displaystyle v_ {k}}
wk{\ displaystyle w_ {k}}
f(⋅){\ displaystyle f (\ cdot)}
h(⋅){\ displaystyle h (\ cdot)}![h (\ cdot)](https://wikimedia.org/api/rest_v1/media/math/render/svg/3a4e42ce33810cdad2ae2f1f5695206f73000a34)
Dacă funcțiile și au fost liniare și dacă ambele și au fost gaussiene , atunci filtrul Kalman găsește distribuția exactă de filtrare bayesiană . În caz contrar, metodele bazate pe filtrul Kalman oferă o estimare la prima comandă. Filtrele de particule oferă, de asemenea, aproximări, dar cu suficiente particule rezultatele pot fi și mai precise.
f(⋅){\ displaystyle f (\ cdot)}
h(⋅){\ displaystyle h (\ cdot)}
vk{\ displaystyle v_ {k}}
wk{\ displaystyle w_ {k}}![w_k](https://wikimedia.org/api/rest_v1/media/math/render/svg/ac808de3e1f01ed40c69d4a350035b19ab28445f)
Aproximare Monte-Carlo
Metodele de particule, la fel ca toate metodele bazate pe eșantionare (cum ar fi MCMC ), creează un set de eșantioane care aproximează distribuția de filtrare . Astfel, în cazul eșantioanelor, valorile așteptate în ceea ce privește distribuția filtrării sunt aproximate prin:
unde este (L) a particulă în momentul respectiv ; și , în modul obișnuit al metodelor Monte Carlo , poate da toate datele de distribuție ( momente etc.) până la un anumit grad de aproximare.
p(Xk|y0,...,yk){\ displaystyle p (x_ {k} | y_ {0}, \ dots, y_ {k})}
P{\ displaystyle P}
∫f(Xk)p(Xk|y0,...,yk)dXk≈1P∑L=1Pf(Xk(L)){\ displaystyle \ int f (x_ {k}) p (x_ {k} | y_ {0}, \ dots, y_ {k}) dx_ {k} \ approx {\ frac {1} {P}} \ sum _ {L = 1} ^ {P} f (x_ {k} ^ {(L)})}
Xk(L){\ displaystyle x_ {k} ^ {(L)}}
k{\ displaystyle k}
f(⋅){\ displaystyle f (\ cdot)}![f (\ cdot)](https://wikimedia.org/api/rest_v1/media/math/render/svg/6ec4adac182c93a76f0238a839ebb10b124e54c2)
În general, algoritmul se repetă iterativ pentru un număr dat de valori (pe care le vom nota ).
k{\ displaystyle k}
NU{\ displaystyle N}![NU](https://wikimedia.org/api/rest_v1/media/math/render/svg/f5e3890c981ae85503089652feb48b191b57aae3)
Initialize for All Particles oferă o poziție de pornire pentru a crea , care poate fi utilizată pentru a crea , care poate fi utilizată pentru a crea și așa mai departe .
Xk=0|k=0{\ displaystyle x_ {k} = 0 | _ {k = 0}}
X1{\ displaystyle x_ {1}}
X2{\ displaystyle x_ {2}}
X3{\ displaystyle x_ {3}}
k=NU{\ displaystyle k = N}![k = N](https://wikimedia.org/api/rest_v1/media/math/render/svg/2e302b20f7f5064ac2ebb7734304fd430ad737a7)
Odată ce acest lucru se face, media de peste tuturor particulelor (sau ) este de aproximativ adevărata valoare .
Xk{\ displaystyle x_ {k}}
1P∑L=1PXk(L){\ displaystyle {\ frac {1} {P}} \ sum _ {L = 1} ^ {P} x_ {k} ^ {(L)}}
Xk{\ displaystyle x_ {k}}![x_k](https://wikimedia.org/api/rest_v1/media/math/render/svg/6d2b88c64c76a03611549fb9b4cf4ed060b56002)
Eșantionare cu eșantionare după importanță (SIR)
Eșantionarea cu importanță a eșantionării sau Eșantionarea Importanței Eșantionarea (SIR) este un algoritm de filtrare utilizat foarte frecvent. El se apropie de distribuția de filtrare printr - un set de particule ponderate: .
p(Xk|y0,...,yk){\ displaystyle p (x_ {k} | y_ {0}, \ ldots, y_ {k})}
{(wk(L),Xk(L)) : L=1,...,P}{\ displaystyle \ {(w_ {k} ^ {(L)}, x_ {k} ^ {(L)}) ~: ~ L = 1, \ ldots, P \}}![\ {(w ^ {(L)} _ k, x ^ {(L)} _ k) ~: ~ L = 1, \ ldots, P \}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6924f1b7cbada4724b257344839a2128eaab4dee)
Greutățile de importanță sunt aproximări ale probabilităților (sau densităților) posterioare relative ale particulelor precum .
wk(L){\ displaystyle w_ {k} ^ {(L)}}
∑L=1Pwk(L)=1{\ displaystyle \ sum _ {L = 1} ^ {P} w_ {k} ^ {(L)} = 1}![\ sum_ {L = 1} ^ P w ^ {(L)} _ k = 1](https://wikimedia.org/api/rest_v1/media/math/render/svg/fbda7da75c998a24ae4b86a4f24e23e2d75ecdb7)
Algoritmul SIR este o versiune recursivă a eșantionării importanței . Ca și în eșantionarea importanței, așteptarea funcției poate fi aproximată ca o medie ponderată:f(⋅){\ displaystyle f (\ cdot)}
∫f(Xk)p(Xk|y0,...,yk)dXk≈∑L=1Pw(L)f(Xk(L)).{\ displaystyle \ int f (x_ {k}) p (x_ {k} | y_ {0}, \ dots, y_ {k}) dx_ {k} \ approx \ sum _ {L = 1} ^ {P} w ^ {(L)} f (x_ {k} ^ {(L)}).}
Performanța algoritmului depinde de alegerea distribuțiile magnitudini : .
π(Xk|X0:k-1,y0:k){\ displaystyle \ pi (x_ {k} | x_ {0: k-1}, y_ {0: k})}![\ pi (x_k | x_ {0: k-1}, y_ {0: k})](https://wikimedia.org/api/rest_v1/media/math/render/svg/c07a6f2fc912bb5af964c66d704cf43bb1f49c2d)
Distribuția optimă a importanței este dată ca:π(Xk|X0:k-1,y0:k)=p(Xk|Xk-1,yk).{\ displaystyle \ pi (x_ {k} | x_ {0: k-1}, y_ {0: k}) = p (x_ {k} | x_ {k-1}, y_ {k}).}
Cu toate acestea, probabilitatea de tranziție este adesea utilizată ca funcție de importanță, deoarece este mai ușor de calculat și simplifică, de asemenea, calculele ponderilor de importanță ulterioare:
π(Xk|X0:k-1,y0:k)=p(Xk|Xk-1).{\ displaystyle \ pi (x_ {k} | x_ {0: k-1}, y_ {0: k}) = p (x_ {k} | x_ {k-1}).}
Filtrele de eșantionare după importanță (CRS) cu probabilități de tranziție ca funcție de importanță sunt cunoscute în mod obișnuit ca filtre de amorsare ( filtre bootstrap ) sau algoritm de condensare .
Reeșantionare evită problema de degenerare a algoritmului. Acest lucru evită situațiile în care toate ponderile de importanță, cu excepția uneia, sunt aproape de zero. Performanța algoritmului poate fi, de asemenea, afectată de alegerea metodei corespunzătoare de eșantionare. Stratificat reeșantionare propusă de Kitagawa (1996) este optimă din punct de vedere varianță.
O singură etapă de eșantionare de importanță secvențială are loc astfel:
- Căci , desenăm mostrele distribuțiilor de importanță :L=1,...,P{\ displaystyle L = 1, \ ldots, P}
Xk(L)∼π(Xk|X0:k-1(L),y0:k){\ displaystyle x_ {k} ^ {(L)} \ sim \ pi (x_ {k} | x_ {0: k-1} ^ {(L)}, y_ {0: k})}
- Deoarece , evaluăm greutățile de importanță cu o constantă de normalizare:L=1,...,P{\ displaystyle L = 1, \ ldots, P}
w^k(L)=wk-1(L)p(yk|Xk(L))p(Xk(L)|Xk-1(L))π(Xk(L)|X0:k-1(L),y0:k).{\ displaystyle {\ hat {w}} _ {k} ^ {(L)} = w_ {k-1} ^ {(L)} {\ frac {p (y_ {k} | x_ {k} ^ { (L)}) p (x_ {k} ^ {(L)} | x_ {k-1} ^ {(L)})} {\ pi (x_ {k} ^ {(L)} | x_ {0 : k-1} ^ {(L)}, y_ {0: k})}}.}
- Pentru a calcula greutățile de importanță normalizate:L=1,...,P{\ displaystyle L = 1, \ ldots, P}
wk(L)=w^k(L)∑J=1Pw^k(J){\ displaystyle w_ {k} ^ {(L)} = {\ frac {{\ hat {w}} _ {k} ^ {(L)}} {\ sum _ {J = 1} ^ {P} { \ hat {w}} _ {k} ^ {(J)}}}}
- Calculăm o estimare a numărului efectiv de particule ca NU^eff=1∑L=1P(wk(L))2{\ displaystyle {\ hat {N}} _ {\ mathit {eff}} = {\ frac {1} {\ sum _ {L = 1} ^ {P} \ left (w_ {k} ^ {(L) } \ dreapta) ^ {2}}}}
- Dacă numărul efectiv de particule este mai mic decât un prag dat , atunci se efectuează resamplarea:
NU^eff<NUthr{\ displaystyle {\ hat {N}} _ {\ mathit {eff}} <N_ {thr}}
![\ hat {N} _ \ mathit {eff} <N_ {thr}](https://wikimedia.org/api/rest_v1/media/math/render/svg/164c04dae569acdef8a42da29257eeb844407c3f)
- Trageți particule din setul curent de particule cu probabilități proporționale cu greutatea lor, apoi înlocuiți setul de particule curente cu acest nou set.P{\ displaystyle P}
![P](https://wikimedia.org/api/rest_v1/media/math/render/svg/b4dc73bf40314945ff376bd363916a738548d40a)
- Pentru întreg .L=1,...,P{\ displaystyle L = 1, \ ldots, P}
wk(L)=1/P{\ displaystyle w_ {k} ^ {(L)} = 1 / P}![w ^ {(L)} _ k = 1 / P](https://wikimedia.org/api/rest_v1/media/math/render/svg/66093650db3dc21950075ca74a49587804c27757)
Termenul de eșantionare importanță secvențială (Reeșantionarea importanței secvențiale) este, de asemenea, folosit uneori pentru a se referi la filtrele SIR.
Eșantionarea secvențială a importanței (SIS)
Eșantionarea secvențială după mărime sau eșantionarea importanței secvențiale (SIS) este similară cu eșantionarea cu importanță de eșantionare (SIR), dar fără etapa de eșantionare.
Versiune directă a algoritmului
Versiunea simplă a algoritmului este relativ simplă în comparație cu alți algoritmi de filtrare a particulelor și folosește compoziția și respingerea. Pentru a produce o singură probă pentru a :
X{\ displaystyle x}
k{\ displaystyle k}
pXk|y1:k(X|y1:k){\ displaystyle p_ {x_ {k} | y_ {1: k}} (x | y_ {1: k})}![p_ {x_k | y_ {1: k}} (x | y_ {1: k})](https://wikimedia.org/api/rest_v1/media/math/render/svg/d23918c75f62e03a4d8259c57576731048e8ec26)
(1) Setați p = 1
(2) Creați în mod
uniform L din
{1,...,P}{\ displaystyle \ {1, ..., P \}}![\ {1, ..., P \}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7ae3d792695701acb8cf41f1afc51869c5a7fa89)
(3) Creați un test din distribuția sa
X^{\ displaystyle {\ hat {x}}}
pXk|Xk-1(X|Xk-1|k-1(L)){\ displaystyle p_ {x_ {k} | x_ {k-1}} (x | x_ {k-1 | k-1} ^ {(L)})}![p_ {x_k | x_ {k-1}} (x | x_ {k-1 | k-1} ^ {(L)})](https://wikimedia.org/api/rest_v1/media/math/render/svg/1f6f41af768b0749fff8912cb3e161c5b9c24f72)
(4) Creați probabilitățile de utilizare de unde este valoarea măsurată
y^{\ displaystyle {\ hat {y}}}
X^{\ displaystyle {\ hat {x}}}
py|X(yk|X^){\ displaystyle p_ {y | x} (y_ {k} | {\ hat {x}})}
yk{\ displaystyle y_ {k}}![y_ {k}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4b2ab0248723a410cc2c67ce06ad5c043dcbb933)
(5) Creați un alt u
uniform[0,mk]{\ displaystyle [0, m_ {k}]}![[0, m_k]](https://wikimedia.org/api/rest_v1/media/math/render/svg/f078a6549b4cdecf4b768d5b34bb42ecc5594f34)
(6) Comparați u și
y^{\ displaystyle {\ hat {y}}}![{\ hat {y}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3dc8de3d8ea01304329ef9518fad7a6d196c4c01)
(a) Dacă u este mai mare atunci repetați de la pasul (2)
(b) Dacă u este mai mic, atunci salvați ca și creșteți p
X^{\ displaystyle {\ hat {x}}}
Xk|k(p){\ displaystyle x {k | k} ^ {(p)}}![x {k | k} ^ {(p)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7222b3f5b89fab450e0cb53ac5f37a53b13bbec8)
(c) Dacă p> P, atunci opriți-vă
Obiectivul este de a crea particule P la pas folosind numai particulele pasului . Acest lucru necesită ca o ecuație Markoviană să poată fi scrisă (și calculată) pentru a crea una bazată numai pe . Acest algoritm folosește compoziția particulelor P din pentru a crea în .
k{\ displaystyle k}
k-1{\ displaystyle k-1}
Xk{\ displaystyle x_ {k}}
Xk-1{\ displaystyle x_ {k-1}}
k-1{\ displaystyle k-1}
k{\ displaystyle k}![k](https://wikimedia.org/api/rest_v1/media/math/render/svg/c3c9a2c7b599b37105512c5d570edc034056dd40)
Acest lucru poate fi vizualizat mai ușor dacă este văzut ca un tablou bidimensional. O dimensiune este, iar cealaltă dimensiune este numărul de particule. De exemplu, ar fi L - a particulelor în etapa și , prin urmare , poate fi scris (așa cum face mai devreme în algoritmul).
X{\ displaystyle x}
k{\ displaystyle k}
X(k,L){\ displaystyle x (k, L)}
k{\ displaystyle k}
Xk(L){\ displaystyle x_ {k} ^ {(L)}}![x_k ^ {(L)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/aebd6c3b292ac5d07c41c1aa8b4b183112cb3fe2)
Pasul (3) creează un potențial bazat pe o particulă aleasă aleatoriu ( ) în timp și respinge sau acceptă această particulă în pasul (6). Cu alte cuvinte, valorile sunt calculate folosind calculul anterior.
Xk{\ displaystyle x_ {k}}
Xk-1(L){\ displaystyle x_ {k-1} ^ {(L)}}
k-1{\ displaystyle k-1}
Xk{\ displaystyle x_ {k}}
Xk-1{\ displaystyle x_ {k-1}}![x_ {k-1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9c60c4443107198983b1ced988c34b238bcd9119)
Note și referințe
-
(în) domnul Sanjeev Arulampalam, „ Un tutorial privind filtrele de particule pentru urmărirea online neliniară / non-gaussiană bayesiană ” , IEEE TRANSACTIONS ON SIGNAL PROCESSING, VOL. 50, NR. 2 ,Februarie 2002
-
(ro) " Filtre pentru particule "
-
Vezi și tu
Bibliografie
-
Metode secvențiale Monte Carlo în practică , de A Doucet, N de Freitas și N Gordon. Postat de Springer.
-
Despre metodele de eșantionare secvențiale Monte Carlo pentru filtrarea bayesiană , de A Doucet, C Andrieu și S. Godsill, Statistics and Computing, vol. 10, nr. 3, p. 197-208 , 2000 CiteSeer link
-
Tutorial cu privire la filtrele de particule pentru urmărirea on-line neliniară / non-gaussiană bayesiană (2001) ; S. Arulampalam, S. Maskell, N. Gordon și T. Clapp; Link CiteSeer
linkuri externe
<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">