Independență (probabilități)
Independența este un concept probabilistic care descrie în mod intuitiv evenimente aleatoare nu au nici o influență asupra reciproc. Acesta este un concept foarte important în statistici și în teoria probabilităților .
De exemplu, valoarea primei aruncări de zar nu are nicio influență asupra valorii celei de-a doua aruncări. La fel, pentru o aruncare, faptul de a obține o valoare mai mică sau egală cu patru nu are nicio influență asupra probabilității ca rezultatul să fie par sau impar : se spune că cele două evenimente sunt independente .
Indiferent dacă două evenimente sunt sau nu independente, nu este întotdeauna ușor de stabilit.
Independența a două evenimente
Definiția matematică a independenței a două evenimente este după cum urmează:
Definiție - A și B sunt independente⇔P(LA∩B)=P(LA)⋅P(B).{\ displaystyle \ Leftrightarrow \ mathbb {P} (A \ cap B) = \ mathbb {P} (A) \ cdot \ mathbb {P} (B).}
Definiția matematică de mai sus nu este foarte semnificativă. Legătura dintre conceptul intuitiv de independență și „formula produsului” de mai sus devine mai clară dacă introducem noțiunea de probabilitate condiționată :
Definiție - Dacă probabilitatea condiționată de cunoașterea , notată este definită prin relația de mai jos:
P(B)≠0,{\ displaystyle \ mathbb {P} (B) \ neq 0,}LA{\ displaystyle A}B{\ displaystyle B}P(LA∣B),{\ displaystyle \ mathbb {P} (A \ mid B),}
P(LA∣B)=P(LA∩B)P(B).{\ displaystyle \ mathbb {P} (A \ mid B) = {\ mathbb {P} (A \ cap B) \ over \ mathbb {P} (B)}.}
Prin excluderea cazurilor speciale neinteresante în care este improbabil , adică în cazul în care și unde este aproape sigur , adică în cazul în care putem reformula definiția independenței după cum urmează
B{\ displaystyle B}P(B)=0,{\ displaystyle \ mathbb {P} (B) = 0,}B{\ displaystyle B}P(B)=1,{\ displaystyle \ mathbb {P} (B) = 1,}
Definiție - Atunci când probabilitatea este nici zero , nici nu este egal , și sunt independente dacă este îndeplinită una dintre următoarele condiții, toate echivalente:
B{\ displaystyle B}1{\ displaystyle 1}LA{\ displaystyle A}B{\ displaystyle B}
P(LA∣B) = P(LA),P(LA∣B¯) = P(LA),P(LA∣B) = P(LA∣B¯).{\ displaystyle {\ begin {align} \ mathbb {P} (A \ mid B) \ & = \ \ mathbb {P} (A), \\\ mathbb {P} (A \ mid {\ overline {B} }) \ & = \ \ mathbb {P} (A), \\\ mathbb {P} (A \ mid B) \ & = \ \ mathbb {P} (A \ mid {\ overline {B}}). \ end {align}}}
Astfel, evenimentele și se spune că sunt independente dacă prognosticul nostru pentru eveniment este același:
LA{\ displaystyle A}B{\ displaystyle B}LA{\ displaystyle A}
- dacă știm că a avut loc evenimentul (prognostic ),B{\ displaystyle B}P(LA∣B){\ displaystyle \ mathbb {P} (A \ mid B)}
- dacă știm că evenimentul nu a avut loc (prognostic ),B{\ displaystyle B}P(LA∣B¯){\ displaystyle \ mathbb {P} (A \ mid {\ overline {B}})}
- dacă nu se știe nimic despre starea evenimentului (prognostic ).B{\ displaystyle B}P(LA){\ displaystyle \ mathbb {P} (A)}
Cu alte cuvinte, se spune că este independent de faptul dacă prognosticul nostru asupra evenimentului nu este afectat de nicio informație referitoare la , și nici de absența informațiilor referitoare la . Putem schimba rolurile și ale în definiție folosind probabilități condiționale, cu condiția, desigur, de a exclude cazurile speciale neinteresante în care este imposibil și unde este sigur .
LA{\ displaystyle A}B{\ displaystyle B}LA{\ displaystyle A}B{\ displaystyle B}B{\ displaystyle B}LA{\ displaystyle A}B{\ displaystyle B}LA{\ displaystyle A}LA{\ displaystyle A}
Deși definiția care utilizează probabilități condiționale este mai intuitivă, are dezavantajul de a fi mai puțin generală și de a nu face cele două evenimente și de a juca un rol simetric .
LA{\ displaystyle A}B{\ displaystyle B}
Rețineți, de asemenea, că un anumit eveniment este independent de orice eveniment . Un eveniment imposibil este, de asemenea, independent de orice alt eveniment. În special, un eveniment este independent de el însuși cu condiția să fie sigur sau imposibil. Într-adevăr, dacă evenimentul este independent de el însuși, putem scrie:
LA{\ displaystyle A}B{\ displaystyle B}LA{\ displaystyle A}LA{\ displaystyle A}LA{\ displaystyle A}
P(LA)=P(LA∩LA)=P(LA)P(LA),{\ displaystyle \ mathbb {P} (A) = \ mathbb {P} (A \ cap A) = \ mathbb {P} (A) \ mathbb {P} (A), \,}
și deducem că probabilitatea evenimentului este fie sau .
LA{\ displaystyle A}0{\ displaystyle 0}1{\ displaystyle 1}
Independența evenimentelornu{\ displaystyle n}
Noțiunea de independență poate fi extinsă la evenimente, prin noțiunea de independență tribală , dar mai degrabă vom da aici două criterii mai lizibile:
nu{\ displaystyle n}
Criteriul 1 - evenimentele se spune că sunt independente dacă și numai dacă, pentru orice parte pe care o avem
nu{\ displaystyle n}LA1,LA2,...,LAnu{\ displaystyle A_ {1}, A_ {2}, \ dots, A_ {n}}Eu⊂{1,2,...,nu},{\ displaystyle I \ subset \ {1,2, \ dots, n \},}
P(⋂eu∈Eu LAeu) = ∏eu∈Eu P(LAeu).{\ displaystyle \ mathbb {P} \ left (\ bigcap _ {i \ in I} \ A_ {i} \ right) \ = \ \ prod _ {i \ in I} \ \ mathbb {P} (A_ {i }).}
Numărul total de condiții care trebuie verificat este, prin urmare, numărul de piese care au cel puțin două elemente, și anume:
Eu⊂{1,2,...,nu}{\ displaystyle I \ subset \ {1,2, \ dots, n \}}
(nu2)+(nu3)+⋯+(nunu)=2nu-(nu+1).{\ displaystyle {n \ choose 2} + {n \ choose 3} + \ cdots + {n \ choose n} = 2 ^ {n} - (n + 1).}
Independența evenimentelor n implică faptul că
LA1,LA2,...,LAnu{\ displaystyle A_ {1}, A_ {2}, \ dots, A_ {n}}
P(LA1∩⋯∩LAnu)=P(LA1)⋯P(LAnu),{\ displaystyle \ mathbb {P} (A_ {1} \ cap \ cdots \ cap A_ {n}) = \ mathbb {P} (A_ {1}) \, \ cdots \, \ mathbb {P} (A_ { nu}),}
care corespunde alegerii particulare dar este o proprietate mult mai slabă decât independența. În același spirit, așa cum putem vedea în exemplul de mai jos, evenimentele pot fi independente două câte două, ceea ce corespunde verificării proprietății pentru toate părțile cu 2 elemente , fără a fi independente:
Eu ={1,2,...,nu},{\ displaystyle I \ = \ {1,2, \ dots, n \},}nu{\ displaystyle n}Eu ⊂{1,2,...,nu}{\ displaystyle I \ \ subset \ {1,2, \ dots, n \}}
Exemplu:
Aruncăm două zaruri și punem
-
LA1{\ displaystyle A_ {1}} : rezultatul aruncării morții n o 1 este egal,
-
LA2{\ displaystyle A_ {2}} : rezultatul aruncării morții n o 2 este egal,
-
LA3{\ displaystyle A_ {3}} : suma rezultatelor celor 2 aruncări este impar.
Avem
P(LA1∩LA2∩LA3) = 0 ≠ 18 = P(LA1)P(LA2)P(LA3),{\ displaystyle \ mathbb {P} (A_ {1} \ cap A_ {2} \ cap A_ {3}) \ = \ 0 \ \ neq \ {\ tfrac {1} {8}} \ = \ \ mathbb { P} (A_ {1}) \ mathbb {P} (A_ {2}) \ mathbb {P} (A_ {3}),}
în timp ce, totuși, pentru cei aleși în mod arbitrar,
eu≠j{\ displaystyle i \ neq j}
P(LAeu)=P(LAj)=12șiP(LAeu∩LAj)=14.{\ displaystyle \ mathbb {P} (A_ {i}) = \ mathbb {P} (A_ {j}) = {\ tfrac {1} {2}} \ quad {\ text {și}} \ quad \ mathbb {P} (A_ {i} \ cap A_ {j}) = {\ tfrac {1} {4}}.}
Criteriul 2 - se spune că evenimentele sunt independente dacă și numai dacă, pentru orice alegere dintre noi
nu{\ displaystyle n}LA1,LA2,...,LAnu{\ displaystyle A_ {1}, A_ {2}, \ dots, A_ {n}}ε∈{0,1}nu,{\ displaystyle \ varepsilon \ in \ {0,1 \} ^ {n},}
P(⋂eu=1nu LAeuεeu) = ∏eu=1nu P(LAeuεeu),{\ displaystyle \ mathbb {P} \ left (\ bigcap _ {i = 1} ^ {n} \ A_ {i} ^ {\ varepsilon _ {i}} \ right) \ = \ \ prod _ {i = 1 } ^ {n} \ \ mathbb {P} (A_ {i} ^ {\ varepsilon _ {i}}),}
unde, prin convenție, șiLAeu0=LAeu¯,{\ displaystyle A_ {i} ^ {0} = {\ overline {A_ {i}}},}LAeu1=LAeu.{\ displaystyle A_ {i} ^ {1} = A_ {i}.}
Independența variabilelor aleatorii
Definiții
Există mai multe definiții echivalente ale independenței unei familii finite de variabile aleatorii. În special, putem defini independența unei familii de triburi și apoi putem vedea independența evenimentelor și independența variabilelor aleatorii ca fiind cazuri speciale de independență tribală. Acest lucru face posibilă demonstrarea anumitor rezultate generale privind independența o singură dată, pentru triburi, apoi deducerea imediată a acestui rezultat general versiunea „evenimente” și versiunea „variabile aleatorii” (un exemplu este lema grupării). Cu toate acestea, poate fi mai bine să dați mai întâi două definiții ale independenței variabilelor aleatorii care sunt operaționale pentru aplicații și câteva criterii convenabile.
În cele ce urmează, considerăm o familie de variabile aleatorii definite pe același spațiu de probabilitate , dar posibil cu valori în spații diferite:(X1,X2,...,Xnu){\ displaystyle (X_ {1}, X_ {2}, \ dots, X_ {n})}(Ω,LA,P){\ displaystyle (\ Omega, {\ mathcal {A}}, \ mathbb {P})}Xeu : (Ω,LA,P) → (Eeu,Eeu),1≤eu≤nu.{\ displaystyle X_ {i} \: \ (\ Omega, {\ mathcal {A}}, \ mathbb {P}) \ \ rightarrow \ (E_ {i}, {\ mathcal {E}} _ {i}) , \ quad 1 \ leq i \ leq n.}
Definiție - este o familie de variabile aleatoare independente dacă una dintre următoarele două condiții este îndeplinită:
(X1,X2,...,Xnu){\ displaystyle (X_ {1}, X_ {2}, \ dots, X_ {n})}
-
∀(LA1,...,LAnu)∈E1×⋯×Enu{\ displaystyle \ forall (A_ {1}, \ dots, A_ {n}) \ in {\ mathcal {E}} _ {1} \ times \ dots \ times {\ mathcal {E}} _ {n}},P(X1∈LA1 și X2∈LA2... și Xnu∈LAnu) = ∏eu=1nuP(Xeu∈LAeu),{\ displaystyle \ quad \ mathbb {P} (X_ {1} \ în A_ {1} {\ text {și}} X_ {2} \ în A_ {2} \ dots {\ text {și}} X_ {n } \ in A_ {n}) \ = \ \ prod _ {i = 1} ^ {n} \ mathbb {P} (X_ {i} \ in A_ {i}),}
- avem egalitateE[∏eu=1nu φeu(Xeu)] = ∏eu=1nuE[φeu(Xeu)],{\ displaystyle \ mathbb {E} \ left [\ prod _ {i = 1} ^ {n} \ \ varphi _ {i} (X_ {i}) \ right] \ = \ \ prod _ {i = 1} ^ {n} \ mathbb {E} \ left [\ varphi _ {i} (X_ {i}) \ right],}pentru orice succesiune de funcții definite pe valori în momentul în care așteptările de mai sus au sens.φeu{\ displaystyle \ varphi _ {i}}(Eeu,Eeu),{\ displaystyle (E_ {i}, {\ mathcal {E}} _ {i}),}R,{\ displaystyle \ mathbb {R},}
Așteptările de mai sus au sens dacă sunt măsurabile și dacă sunt integrabile sau dacă sunt măsurabile și pozitive sau zero. De obicei, în aplicații, în cazul a două variabile reale aleatorii, acest lucru dă:
φeu{\ displaystyle \ varphi _ {i}}∏eu=1nu φeu(Xeu){\ displaystyle \ prod _ {i = 1} ^ {n} \ \ varphi _ {i} (X_ {i})}φeu{\ displaystyle \ varphi _ {i}}(Eeu,Eeu)=(Rdeu,B(Rdeu)).{\ displaystyle (E_ {i}, {\ mathcal {E}} _ {i}) = (\ mathbb {R} ^ {d_ {i}}, {\ mathcal {B}} (\ mathbb {R} ^ {d_ {i}})).}
Definiție - Două variabile reale aleatorii și sunt independente dacă una dintre următoarele două condiții este îndeplinită:
X{\ displaystyle X}Da{\ displaystyle Y}
- ∀(LA,B)∈B(R)2,P(X∈LA și Da∈B) = P(X∈LA) P(Da∈B),{\ displaystyle \ forall (A, B) \ in {\ mathcal {B}} (\ mathbb {R}) ^ {2}, \ quad \ mathbb {P} (X \ in A {\ text {și}} Y \ in B) \ = \ \ mathbb {P} (X \ in A) \ \ mathbb {P} (Y \ in B),}
- pentru orice pereche de funcții boreliene și de îndată ce așteptările de mai jos au un sens, avemg{\ displaystyle g}h,{\ displaystyle h,}E[g(X)⋅h(Da)]=E[g(X)]⋅E[h(Da)].{\ displaystyle \ mathbb {E} \ left [g (X) \ cdot h (Y) \ right] = \ mathbb {E} [g (X)] \ cdot \ mathbb {E} [h (Y)]. }
Definițiile precedente se referă la familii finite de variabile aleatorii, numerotate de la la pentru comoditate, fără ca acest lucru să restrângă generalitatea enunțurilor: într-adevăr, putem numera întotdeauna de la la elementele unei familii finite de variabile aleatoare. În plus, definițiile joacă roluri simetrice pentru fiecare element al familiei, astfel încât alegerea unei numerotări sau a alteia nu are niciun efect asupra verificării definiției.
1{\ displaystyle 1}nu{\ displaystyle n}1{\ displaystyle 1}nu{\ displaystyle n}
Independența oricărei familii (posibil infinite) de variabile aleatorii este următoarea:
Definiție - O familie orice variabile aleatoare definite pe o familie de variabile aleatoare independente dacă și numai dacă toate familia de sub finită a este o familie de variabile aleatoare independente ( de exemplu, dacă și numai dacă, pentru orice parte finită a , este o familie de variabile aleatorii independente).
(Xj)j∈J{\ displaystyle (X_ {j}) _ {j \ în J}}(Ω,LA,P){\ displaystyle (\ Omega, {\ mathcal {A}}, \ mathbb {P})}(Xj)j∈J{\ displaystyle (X_ {j}) _ {j \ în J}}Eu{\ displaystyle I}J{\ displaystyle J}(Xeu)eu∈Eu{\ displaystyle (X_ {i}) _ {i \ în I}}
Cazul variabilelor aleatorii de densitate
Fie o serie de variabile aleatoare reale definite pe același spațiu de probabilitateX=(X1,X2,...,Xnu){\ displaystyle X = (X_ {1}, X_ {2}, \ dots, X_ {n})}(Ω,LA,P).{\ displaystyle (\ Omega, {\ mathcal {A}}, \ mathbb {P}).}
Teorema -
- Dacă are o densitate de probabilitate care este scrisă sub forma „produs”:X{\ displaystyle X} f:Rnu→[0,+∞[{\ displaystyle f: \ mathbb {R} ^ {n} \ rightarrow [0, + \ infty [}
∀X=(X1,...,Xnu)∈Rnu,f(X) = ∏eu=1nugeu(Xeu),{\ displaystyle \ forall x = (x_ {1}, \ dots, x_ {n}) \ in \ mathbb {R} ^ {n}, \ qquad f (x) \ = \ \ prod _ {i = 1} ^ {n} g_ {i} (x_ {i}),}
unde funcțiile sunt boreliene și pozitive sau zero, atunci este o succesiune de variabile independente. În plus, funcția definită degeu{\ displaystyle g_ {i}}X{\ displaystyle X}feu{\ displaystyle f_ {i}}
feu(X) = geu(X)∫Rgeu(tu)dtu{\ displaystyle f_ {i} (x) \ = \ {\ frac {g_ {i} (x)} {\ int _ {\ mathbb {R}} g_ {i} (u) du}}}
este o densitate de probabilitate a variabilei aleatorii Xeu.{\ displaystyle X_ {i}.}
- În schimb, dacă este o secvență de variabile aleatoare reale independente cu densități de probabilitate respective, atunci are o densitate de probabilitate și funcția definită deX{\ displaystyle X}feu,{\ displaystyle f_ {i},}X{\ displaystyle X}f{\ displaystyle f}
∀(X1,...,Xnu)∈Rnu,f(X1,...,Xnu) = ∏eu=1nufeu(Xeu),{\ displaystyle \ forall (x_ {1}, \ dots, x_ {n}) \ in \ mathbb {R} ^ {n}, \ qquad f (x_ {1}, \ dots, x_ {n}) \ = \ \ prod _ {i = 1} ^ {n} f_ {i} (x_ {i}),}
este o densitate de probabilitate de X.{\ displaystyle X.}
Dovadă în cazul a două variabile
Înțeles direct.
Deoarece densitatea este sub formă de produs, avem
f{\ displaystyle f}
1=∫R2f(X1,X2)dX1dX2=(∫g1(X1)dX1)(∫g2(X2)dX2){\ displaystyle {\ begin {align} 1 & = \ int _ {\ mathbb {R} ^ {2}} f (x_ {1}, x_ {2}) \, dx_ {1} \, dx_ {2} \ \ & = \ left (\ int g_ {1} (x_ {1}) \, dx_ {1} \ right) \, \ left (\ int g_ {2} (x_ {2}) \, dx_ {2 } \ dreapta) \ end {align}}}
si in consecinta
f(X1,X2)=g1(X1)g2(X2)=g1(X1)∫Rg1(tu)dtu g2(X2)∫Rg2(v)dv=f1(X1)f2(X2).{\ displaystyle {\ begin {align} f (x_ {1}, x_ {2}) & = g_ {1} (x_ {1}) \, g_ {2} (x_ {2}) \\ & = { \ frac {g_ {1} (x_ {1})} {\ int _ {\ mathbb {R}} g_ {1} (u) du}} \ {\ frac {g_ {2} (x_ {2}) } {\ int _ {\ mathbb {R}} g_ {2} (v) dv}} \\ & = f_ {1} (x_ {1}) \, f_ {2} (x_ {2}). \ sfârșit {aliniat}}}
Prin construcție funcțiile sunt integrale 1, deci
feu{\ displaystyle f_ {i}}
∫Rf(X1,X2)dX2=f1(X1),∫Rf(X1,X2)dX1=f2(X2).{\ displaystyle {\ begin {align} \ int _ {\ mathbb {R}} f (x_ {1}, x_ {2}) dx_ {2} & = f_ {1} (x_ {1}), \\ \ int _ {\ mathbb {R}} f (x_ {1}, x_ {2}) dx_ {1} & = f_ {2} (x_ {2}). \ end {align}}}
Astfel, funcțiile sunt densitățile de probabilitate marginale ale celor două componente ale Prin urmare, pentru orice pereche de funcții și astfel încât primul termen de mai jos are un sens, avem
feu{\ displaystyle f_ {i}}X.{\ displaystyle X.}φ{\ displaystyle \ varphi}ψ{\ displaystyle \ psi}
E[φ(X1)ψ(X2)]=∫∫φ(X1)ψ(X2)f(X1,X2)dX1dX2=∫∫φ(X1)f1(X1)ψ(X2)f2(X2)dX1dX2=∫φ(X1)f1(X1)dX1∫ψ(X2)f2(X2)dX2=E[φ(X1)]E[ψ(X2)]{\ displaystyle {\ begin {align} \ operatorname {E} [\ varphi (X_ {1}) \ psi (X_ {2})] & = \ int \ int \ varphi (x_ {1}) \ psi (x_ {2}) f (x_ {1}, x_ {2}) \, dx_ {1} \, dx_ {2} \\ & = \ int \ int \ varphi (x_ {1}) f_ {1} (x_ {1}) \ psi (x_ {2}) f_ {2} (x_ {2}) \, dx_ {1} \, dx_ {2} \\ & = \ int \ varphi (x_ {1}) f_ { 1} (x_ {1}) \, dx_ {1} \ int \ psi (x_ {2}) f_ {2} (x_ {2}) \, dx_ {2} \\ & = \ operatorname {E} [ \ varphi (X_ {1})] \ operatorname {E} [\ psi (X_ {2})] \ end {align}}}
ceea ce duce la independența variabilelor și X1{\ displaystyle X_ {1}}X2.{\ displaystyle X_ {2}.}
Înțeles reciprocal.
Arată doar asta
∀LA∈B(R2),PX(LA)=μ(LA),{\ displaystyle \ forall A \ in {\ mathcal {B}} (\ mathbb {R} ^ {2}), \ quad \ mathbb {P} _ {X} (A) = \ mu (A),}
unde este legea și unde este măsura cu densitatea Or
PX{\ displaystyle \ mathbb {P} _ {X}}X,{\ displaystyle X,}μ{\ displaystyle \ mu}(X1,X2)→f1(X1)f2(X2).{\ displaystyle (x_ {1}, x_ {2}) \ rightarrow f_ {1} (x_ {1}) f_ {2} (x_ {2}).}
∀LA∈VS,PX(LA)=μ(LA),{\ displaystyle \ forall A \ in {\ mathcal {C}}, \ quad \ mathbb {P} _ {X} (A) = \ mu (A),}
unde este clasa pietrelor boreliene:
VS{\ displaystyle {\ mathcal {C}}}
VS = {LA1×LA2 | LAeu∈B(R),eu∈{1,2}}.{\ displaystyle {\ mathcal {C}} \ = \ \ {A_ {1} \ times A_ {2} \ | \ A_ {i} \ in {\ mathcal {B}} (\ mathbb {R}), i \ in \ {1,2 \} \}.}
Într-adevăr
PX(LA1×LA2)=P(X1∈LA1 și X2∈LA2)=P(X1∈LA1)P(X2∈LA2)=(∫R1LA1(X1)f1(X1)dX1)(∫R1LA2(X2)f2(X2)dX2)=∫R21LA1×LA2(X1,X2)f1(X1)f2(X2)dX1dX2=μ(LA1×LA2).{\ displaystyle {\ begin {align} \ mathbb {P} _ {X} (A_ {1} \ times A_ {2}) & = \ mathbb {P} (X_ {1} \ în A_ {1} {\ text {et}} X_ {2} \ in A_ {2}) \\ & = \ mathbb {P} (X_ {1} \ in A_ {1}) \ mathbb {P} (X_ {2} \ in A_ {2}) \\ & = \ left (\ int _ {\ mathbb {R}} 1_ {A_ {1}} (x_ {1}) f_ {1} (x_ {1}) \, dx_ {1} \ right) \ left (\ int _ {\ mathbb {R}} 1_ {A_ {2}} (x_ {2}) f_ {2} (x_ {2}) \, dx_ {2} \ right) \\ & = \ int _ {\ mathbb {R} ^ {2}} 1_ {A_ {1} \ times A_ {2}} (x_ {1}, x_ {2}) f_ {1} (x_ {1}) f_ {2} (x_ {2}) \, dx_ {1} \, dx_ {2} \\ & = \ mu (A_ {1} \ times A_ {2}) \ end {align}}.}
Observăm atunci că este un sistem π și că tribul generat de este , prin urmare, în virtutea lemei de unicitate a măsurilor de probabilitate ,
VS{\ displaystyle {\ mathcal {C}}}VS{\ displaystyle {\ mathcal {C}}}B(R2),{\ displaystyle {\ mathcal {B}} (\ mathbb {R} ^ {2}),}
∀LA∈B(R2),PX(LA)=μ(LA).{\ displaystyle \ forall A \ in {\ mathcal {B}} (\ mathbb {R} ^ {2}), \ quad \ mathbb {P} _ {X} (A) = \ mu (A).}
Cazul variabilelor discrete
În cazul variabilelor discrete, un criteriu util de independență este următorul:
Caz discret - Fie o secvență de variabile aleatorii discrete și fie o secvență de seturi finite sau numărabile astfel încât, pentru toate , atunci familia este o secvență de variabile aleatoare independente dacă, pentru toateX=(X1,X2,...,Xnu){\ displaystyle X = (X_ {1}, X_ {2}, \ dots, X_ {n})}(S1,S2,...,Snu){\ displaystyle (S_ {1}, S_ {2}, \ dots, S_ {n})}eu≤nu{\ displaystyle i \ leq n}P(Xeu∈Seu)=1.{\ displaystyle \ mathbb {P} (X_ {i} \ în S_ {i}) = 1.}(X1,X2,...,Xnu){\ displaystyle (X_ {1}, X_ {2}, \ dots, X_ {n})}X=(X1,X2,...,Xnu)∈∏eu=1nuSeu,{\ displaystyle x = (x_ {1}, x_ {2}, \ dots, x_ {n}) \ in \ prod _ {i = 1} ^ {n} \, S_ {i},}
P(X=X) = ∏eu=1nuP(Xeu=Xeu).{\ displaystyle \ mathbb {P} \ left (X = x \ right) \ = \ \ prod _ {i = 1} ^ {n} \, \ mathbb {P} \ left (X_ {i} = x_ {i } \ dreapta).}
Legea uniformă a unui produs cartezian:
- Fie o secvență de seturi finite, de cardinali respectivi și să fie o variabilă aleatorie uniformă cu valori în produsul cartezian :(E1,E2,...,Enu){\ displaystyle (E_ {1}, E_ {2}, \ dots, E_ {n})}#Eeu{\ displaystyle \ #E_ {i}}X=(X1,X2,...,Xnu){\ displaystyle X = (X_ {1}, X_ {2}, \ dots, X_ {n})}
E = E1×E2×E3× ... ×Enu.{\ displaystyle E \ = \ E_ {1} \ times E_ {2} \ times E_ {3} \ times \ \ dots \ \ times E_ {n}.}
Apoi , secvența este o secvență de variabile aleatoare independente, și, pentru fiecare , variabila aleatoare urmează uniformă Legea cu privire . Într-adevăr, să luăm în considerare o serie de variabile aleatoare independente, fiecare fiind uniformă pe setul corespunzător. Deci, pentru orice element al ,X{\ displaystyle X}eu{\ displaystyle i}Xeu{\ displaystyle X_ {i}}Eeu{\ displaystyle E_ {i}}Da=(Daeu)eu≤eu≤nu{\ displaystyle Y = (Y_ {i}) _ {i \ leq i \ leq n}}Daeu{\ displaystyle Y_ {i}}Eeu{\ displaystyle E_ {i}}X=(Xeu)1≤eu≤nu{\ displaystyle x = (x_ {i}) _ {1 \ leq i \ leq n}}E{\ displaystyle E}
P(X=X)=1#E=∏eu=1nu1#Eeu=∏eu=1nuP(Daeu=Xeu)=P(Da=X),{\ displaystyle {\ begin {align} \ mathbb {P} \ left (X = x \ right) & = {\ frac {1} {\ # E}} \\ & = \ prod _ {i = 1} ^ {n} {\ frac {1} {\ # E_ {i}}} \\ & = \ prod _ {i = 1} ^ {n} \, \ mathbb {P} \ left (Y_ {i} = x_ {i} \ right) \\ & = \ mathbb {P} \ left (Y = x \ right), \ end {align}}}
a doua egalitate rezultată din formula care dă numărul de elemente ale unui produs cartesian de seturi, a 4- a independenței , alte egalități rezultate din definiția legii uniforme . Astfel, secvențele și au aceeași lege, ceea ce presupune că este o secvență de variabile aleatoare independente ale căror componente urmează legi uniforme.Daeu{\ displaystyle Y_ {i}}X{\ displaystyle X}Da{\ displaystyle Y}X{\ displaystyle X}
Alte criterii de independență
De exemplu,
Criterii - Fie și două variabile reale aleatorii definite pe un spațiu de probabilitateX{\ displaystyle X}Da{\ displaystyle Y} (Ω,LA,P).{\ displaystyle (\ Omega, {\ mathcal {A}}, \ mathbb {P}).}
- Dacă, pentru orice pereche de numere reale,(X,y){\ displaystyle (x, y)}
P(X≤X și Da≤y) = P(X≤X)×P(Da≤y),{\ displaystyle \ mathbb {P} \ left (X \ leq x {\ text {et}} Y \ leq y \ right) \ = \ \ mathbb {P} \ left (X \ leq x \ right) \ times \ mathbb {P} \ left (Y \ leq y \ right),}
atunci și sunt independenți .X{\ displaystyle X}Da{\ displaystyle Y}
- Dacă are valori în și dacă, pentru orice perecheDa{\ displaystyle Y}NU,{\ displaystyle \ mathbb {N},}(X,nu)∈R×NU,{\ displaystyle (x, n) \ in \ mathbb {R} \ times \ mathbb {N},}
P(X≤X și Da=nu) = P(X≤X)×P(Da=nu),{\ displaystyle \ mathbb {P} \ left (X \ leq x {\ text {et}} Y = n \ right) \ = \ \ mathbb {P} \ left (X \ leq x \ right) \ times \ mathbb {P} \ left (Y = n \ right),}
atunci și sunt independenți.X{\ displaystyle X}Da{\ displaystyle Y}
- Desigur, dacă și sunt cu valori în și dacă, pentru orice cupluX{\ displaystyle X}Da{\ displaystyle Y}NU{\ displaystyle \ mathbb {N}}(m,nu)∈NU2,{\ displaystyle (m, n) \ in \ mathbb {N} ^ {2},}
P(X=m și Da=nu) = P(X=m)×P(Da=nu),{\ displaystyle \ mathbb {P} \ left (X = m {\ text {and}} Y = n \ right) \ = \ \ mathbb {P} \ left (X = m \ right) \ times \ mathbb {P } \ left (Y = n \ right),}
atunci X și Y sunt independenți.
De exemplu, al doilea criteriu poate fi folosit pentru a demonstra că în metoda de respingere , numărul de iterații este independent de obiectul aleatoriu (adesea un număr aleatoriu) generat la sfârșitul acestor iterații.
Aceste criterii de independență pot fi generalizate la orice familie finită de variabile aleatoare reale, dintre care unele, eventual, sunt variabile discrete, cu valori în părți finite sau numărabile ale ℝ posibil diferite de . O dovadă a acestor criterii poate fi găsită pe pagina „ Lemă de clasă monotonă ”.
NU{\ displaystyle \ mathbb {N}}
Independență și corelație
Independența implică faptul că covarianța și, prin urmare, corelația dintre cele două variabile este zero:
Teorema - X și Y sunt independente⇒Cov(X,Da)=Corect(X,Da)=0{\ displaystyle \ Rightarrow \ operatorname {Cov} (X, Y) = \ operatorname {Corr} (X, Y) = 0}
Demonstrație
Această proprietate este dedus foarte ușor dacă o exprimă covarianța ca: . După cum am văzut, independența și atrage după sine faptul că , în consecință .
cov(X,Da)=E(XDa)-E(X)E(Da){\ displaystyle \ operatorname {cov} (X, Y) = \ operatorname {E} (XY) - \ operatorname {E} (X) \ operatorname {E} (Y)}X{\ displaystyle X}Da{\ displaystyle Y}E(XDa)=E(X)E(Da){\ displaystyle \ operatorname {E} (XY) = \ operatorname {E} (X) \ operatorname {E} (Y)}cov(X,Da)=E(XDa)-E(X)E(Da)=E(X)E(Da)-E(X)E(Da)=0{\ displaystyle \ operatorname {cov} (X, Y) = \ operatorname {E} (XY) - \ operatorname {E} (X) \ operatorname {E} (Y) = \ operatorname {E} (X) E ( Y) - \ operatorname {E} (X) \ operatorname {E} (Y) = 0}
Conversa teoremei este falsă, după cum arată următorul exemplu:
Exemplu:
Acest exemplu este preluat din Ross (2004, p. 306)
- Fie X o variabilă discretă aleatorie astfel încât .P(X=0)=P(X=1)=P(X=-1)=13{\ displaystyle \ mathbb {P} (X = 0) = \ mathbb {P} (X = 1) = \ mathbb {P} (X = -1) = {\ frac {1} {3}}}
- Să definim Y în raport cu X :{0dacă X≠01dacă X=0{\ displaystyle {\ begin {cases} 0 & {\ text {si}} X \ neq 0 \\ 1 & {\ text {si}} X = 0 \\\ end {cases}}}
- Calculăm .E[XDa]=13(0⋅1)+13(1⋅0)+13(-1⋅0)=0{\ displaystyle \ operatorname {E} [XY] = {\ frac {1} {3}} (0 \ cdot 1) + {\ frac {1} {3}} (1 \ cdot 0) + {\ frac { 1} {3}} (- 1 \ cdot 0) = 0}
- Vedem și asta .E[X]=13(0)+13(1)+13(-1)=0+1-1=0{\ displaystyle \ operatorname {E} [X] = {\ frac {1} {3}} (0) + {\ frac {1} {3}} (1) + {\ frac {1} {3}} (-1) = 0 + 1-1 = 0}
- Prin urmare: .cov(X,Da)=E(XDa)-E(X)E(Da)=0-0=0{\ displaystyle \ operatorname {cov} (X, Y) = \ operatorname {E} (XY) - \ operatorname {E} (X) \ operatorname {E} (Y) = 0-0 = 0}
- Cu toate acestea, cele două variabile nu sunt în mod evident independente!
Non-corelația dintre și este o proprietate mai slabă decât independența. De fapt, independența dintre și este echivalentă cu necorelarea dintre și a pentru orice alegere a și a (astfel încât covarianța lui cu este definită ...).
X{\ displaystyle X}Da{\ displaystyle Y}X{\ displaystyle X}Da{\ displaystyle Y}φ(X){\ displaystyle \ varphi (X)}ψ(Da){\ displaystyle \ psi (Y)}φ{\ displaystyle \ varphi}ψ{\ displaystyle \ psi}φ(X){\ displaystyle \ varphi (X)}ψ(X){\ displaystyle \ psi (x)}
Independența triburilor
Definiție - Într-un spațiu de probabilitate (Ω,LA,P),{\ displaystyle (\ Omega, {\ mathcal {A}}, \ mathbb {P}),}
- o familie finită de triburi incluse în este o familie de triburi independente dacă și numai dacă(LAeu)eu∈Eu{\ displaystyle ({\ mathcal {A}} _ {i}) _ {i \ in I}}LA{\ displaystyle {\ mathcal {A}}}
∀(LAeu)eu∈Eu∈∏eu∈EuLAeu,P(⋂eu∈EuLAeu)= ∏eu∈Eu P(LAeu).{\ displaystyle \ forall (A_ {i}) _ {i \ in I} \ in \ prod _ {i \ in I} {\ mathcal {A}} _ {i}, \ qquad \ mathbb {P} \ left (\ bigcap _ {i \ in I} A_ {i} \ right) = \ \ prod _ {i \ in I} \ \ mathbb {P} (A_ {i}).}
- orice familie de triburi incluse este o familie de triburi independente dacă și numai dacă orice subfamilie finită a este o familie de triburi independente (adică, dacă și numai dacă, pentru orice parte finită I a lui J , este o familie de triburi independente).(LAj)j∈J{\ displaystyle ({\ mathcal {A}} _ {j}) _ {j \ in J}}LA{\ displaystyle {\ mathcal {A}}}(LAj)j∈J{\ displaystyle ({\ mathcal {A}} _ {j}) _ {j \ in J}}(LAeu)eu∈Eu{\ displaystyle ({\ mathcal {A}} _ {i}) _ {i \ in I}}
Legătură cu independența evenimentelor
Definiție -
O familie de evenimente (adică elemente ale ) este o familie de evenimente independente dacă și numai dacă este o familie de triburi independente.
(LAj)j∈J{\ displaystyle (A_ {j}) _ {j \ în J}}LA{\ displaystyle {\ mathcal {A}}}(σ(LAj))j∈J{\ displaystyle \ left (\ sigma (A_ {j}) \ right) _ {j \ in J}}
Așa cum este descris tribul născut de:
σ(LA){\ displaystyle \ sigma ({A})}LA{\ displaystyle A}
σ(LA) = {LA,LA¯,Ω,∅},{\ displaystyle \ sigma (A) \ = \ \ left \ {A, {\ overline {A}}, \ Omega, \ emptyset \ right \},}
definiția dată în această secțiune pentru orice familie de evenimente, odată specificată unei familii de evenimente, pare a fi mai puternică decât cele două criterii date mai sus . Într-adevăr, pentru o alegere adecvată a evenimentelor din definiție
nu{\ displaystyle n}Beu{\ displaystyle B_ {i}}
{∀(Beu)1≤eu≤nu∈∏eu=1nuσ(LAeu),P(⋂eu=1nuBeu)= ∏eu=1nu P(Beu)},{\ displaystyle \ left \ {\ forall (B_ {i}) _ {1 \ leq i \ leq n} \ in \ prod _ {i = 1} ^ {n} \ sigma ({A} _ {i}) , \ qquad \ mathbb {P} \ left (\ bigcap _ {i = 1} ^ {n} B_ {i} \ right) = \ \ prod _ {i = 1} ^ {n} \ \ mathbb {P} (B_ {i}) \ right \},}
date în această secțiune, găsim criteriul 1 (alege uneori uneori în ) și criteriul 2 (alege uneori uneori în ). Cu toate acestea, criteriile 1 și 2 sunt efectiv echivalente cu definiția prin triburi, dată în această secțiune, dar acest lucru merită demonstrat.
Ω,{\ displaystyle \ Omega,}LAeu{\ displaystyle A_ {i}}σ(LAeu){\ displaystyle \ sigma ({A} _ {i})}LAeu,{\ displaystyle A_ {i},}LAeu¯{\ displaystyle {\ overline {A_ {i}}}}σ(LAeu){\ displaystyle \ sigma ({A} _ {i})}
Legătură cu independența variabilelor aleatorii
Definiție -
O familie de variabile aleatoare definită pe este o familie de variabile aleatoare independente dacă și numai dacă este o familie de triburi independente.
(Xj)j∈J{\ displaystyle (X_ {j}) _ {j \ în J}}(Ω,LA,P){\ displaystyle (\ Omega, {\ mathcal {A}}, \ mathbb {P})}(σ(Xj))j∈J{\ displaystyle \ left (\ sigma (X_ {j}) \ right) _ {j \ in J}}
Deoarece tribul generat de o variabilă aleatorie definită din in este definit de:
σ(X){\ displaystyle \ sigma (X)}X,{\ displaystyle X,}(Ω,LA,P){\ displaystyle (\ Omega, {\ mathcal {A}}, \ mathbb {P})}(E,E),{\ displaystyle (E, {\ mathcal {E}}),}
σ(X) = {X-1(B) | B∈E},{\ displaystyle \ sigma (X) \ = \ \ left \ {X ^ {- 1} (B) \ \ left | \ B \ in {\ mathcal {E}} \ right. \ right \},}
definiția dată în această secțiune pentru orice familie de variabile aleatoare, odată particularizată la o familie de variabile aleatoare, este în mod clar echivalentă cu definiția din secțiunea Independența variabilelor aleatoare . Într-adevăr
nu{\ displaystyle n}
P(X1∈LA1 și X2∈LA2 și ... și Xnu∈LAnu){\ displaystyle \ mathbb {P} \ left (X_ {1} \ în A_ {1} {\ text {și}} X_ {2} \ în A_ {2} {\ text {și}} \ dots {\ text {și}} X_ {n} \ în A_ {n} \ dreapta)}
este un abuz de rating pentru
P(⋂eu=1nuXeu-1(LAeu)),{\ displaystyle \ mathbb {P} \ left (\ bigcap _ {i = 1} ^ {n} X_ {i} ^ {- 1} (A_ {i}) \ right),}
și
P(Xeu∈LAeu){\ displaystyle \ mathbb {P} \ left (X_ {i} \ în A_ {i} \ right)}
este un abuz de rating pentru
P(Xeu-1(LAeu)).{\ displaystyle \ mathbb {P} \ left (X_ {i} ^ {- 1} (A_ {i}) \ right).}
Proprietăți elementare
Proprietăți -
- O subfamilie a unei familii tribale independente este o familie tribală independentă: dacă familia este o familie tribală independentă și dacă atunci este o familie tribală independentă.(LAj)j∈J{\ displaystyle ({\ mathcal {A}} _ {j}) _ {j \ in J}}Eu⊂J,{\ displaystyle I \ subset J,}(LAeu)eu∈Eu{\ displaystyle ({\ mathcal {A}} _ {i}) _ {i \ in I}}
- Dacă pentru întregul trib este inclus în trib și dacă familia este o familie de triburi independente, atunci familia este o familie de triburi independente .j∈J,{\ displaystyle j \ în J,}Bj{\ displaystyle {\ mathcal {B}} _ {j}}LAj,{\ displaystyle {\ mathcal {A}} _ {j},}(LAj)j∈J{\ displaystyle ({\ mathcal {A}} _ {j}) _ {j \ in J}}(Bj)j∈J{\ displaystyle ({\ mathcal {B}} _ {j}) _ {j \ in J}}
Pentru a demonstra primul punct, aplicăm definiția independenței familiei, specializându-ne într-o familie de evenimente, cum ar fi Al doilea punct este imediat: scrieți definiția independenței familiei(LAj)j∈J{\ displaystyle ({\ mathcal {A}} _ {j}) _ {j \ in J}}(LAj)j∈J{\ displaystyle (A_ {j}) _ {j \ în J}}∀j∈J∖Eu,LAj=Ω.{\ displaystyle \ forall j \ in J \ backslash I, \ quad A_ {j} = \ Omega.}(Bj)j∈J.{\ displaystyle ({\ mathcal {B}} _ {j}) _ {j \ în J}.}
Lemă de grupare
Gruparea lemei - Într-un spațiu probabilizat fie o familie arbitrară de triburi independente incluse fie în o partiție a notonilor
(Ω,LA,P),{\ displaystyle (\ Omega, {\ mathcal {A}}, \ mathbb {P}),} (LAj)j∈J{\ displaystyle ({\ mathcal {A}} _ {j}) _ {j \ in J}}LA.{\ displaystyle {\ mathcal {A}}.} P=(Peu)eu∈Eu{\ displaystyle {\ mathcal {P}} = (P_ {i}) _ {i \ in I}}J.{\ displaystyle J.}
Beu=∨j∈Peu LAj{\ displaystyle {\ mathcal {B}} _ {i} = \ mathop {\ vee} _ {j \ în P_ {i}} \ {\ mathcal {A}} _ {j}}
tribul născut de
⋃j∈Peu LAj.{\ displaystyle \ bigcup _ {j \ in P_ {i}} ^ {} \ {\ mathcal {A}} _ {j}.}
Deci, familia este o familie de triburi independente .
(Beu)eu∈Eu{\ displaystyle ({\ mathcal {B}} _ {i}) _ {i \ in I}}
Aplicații:
Lema grupării este utilizată, probabil, foarte des și aproape inconștient. Să cităm câteva exemple:
Într-un mod mai de bază,
- în cazul finit, dacă este o familie de variabile independente și dacă și sunt două funcții (măsurabile), atunci, prin aplicarea lemei de grupare, și sunt două variabile independente, deoarece și formează o partiție a .(X1,X2,X3,X4,X5){\ displaystyle (X_ {1}, X_ {2}, X_ {3}, X_ {4}, X_ {5})}f{\ displaystyle f}g{\ displaystyle g}f(X2,X3,X5){\ displaystyle f (X_ {2}, X_ {3}, X_ {5})}g(X1,X4){\ displaystyle g (X_ {1}, X_ {4})}{2,3,5}{\ displaystyle \ {2,3,5 \}}{1,4}{\ displaystyle \ {1,4 \}}{1,2,3,4,5}{\ displaystyle \ {1,2,3,4,5 \}}
Independență și informare
O altă modalitate de a înțelege această noțiune de independență între două evenimente este de a trece prin informații (în sensul teoriei informației ): două evenimente sunt independente dacă informațiile furnizate de primul eveniment nu oferă informații.pe al doilea eveniment.
Sau să tragi două bile (roșii și albe) dintr-o urnă. Dacă efectuăm experimentul fără a pune mingea trasă înapoi în urnă, iar prima bilă trasă este roșie, putem deduce din aceste informații că a doua bilă trasă va fi albă. Prin urmare, cele două evenimente nu sunt independente.
Pe de altă parte, dacă punem prima minge înapoi în urnă înainte de a doua remiză, informațiile primului eveniment (mingea este roșie) nu ne oferă nicio informație cu privire la culoarea celei de-a doua mingi. Prin urmare, cele două evenimente sunt independente.
Această abordare este utilizată în special în analiza componentelor independente .
Note și referințe
-
Într-adevărP(Xmod2=0|X∈{1,2,3,4})=12=P(Xmod2=0|X∈{1,2,3,4,5,6}){\ displaystyle \ mathbb {P} (x \ mod 2 = 0 | x \ in \ {1,2,3,4 \}) = {\ frac {1} {2}} = \ mathbb {P} (x \ mod 2 = 0 | x \ in \ {1,2,3,4,5,6 \})}
Vezi și tu
Bibliografie
- TA. Banh, Calcul des probabilități, Ed. ULg, 1995.
- A. Hyvärinen, E. Oja, Analiza componentelor independente, rețele neuronale, 13 (4-5): 411-430, 2000.
- Sheldon M Ross , Initiation Aux Probabilities , Lausanne, Presses polytechniques et universitaire romandes ,2004, Trad. a 4-a ed. Ed. Americană , p. 458
- (ro) Olav Kallenberg, Foundations of Modern Probability , New York, Springer, col. „Probabilitatea și aplicațiile sale”,1997( retipărire 2001), 638 p. ( ISBN 0-387-95313-2 , citit online )
Articole similare