Regresia polinomială
Regresia polinomială
Regresia polinomială este o analiză statistică care descrie variația unei variabile aleatoare explicată dintr - o funcție polinomială de explicative variate. Acesta este un caz special de regresie liniară multiplă , unde observațiile sunt construite din puterile unei singure variabile.
Prezentare
Dacă numim ( X i , Y i ) a i -a realizare a perechii de variabile aleatorii, căutăm polinomul
Pnu(X)=lanuXnu+lanu-1Xnu-1+...+la1X+la0,{\ displaystyle P_ {n} (x) = a_ {n} x ^ {n} + a_ {n-1} x ^ {n-1} + \ ldots + a_ {1} x + a_ {0},}îngăduind să scrie
Daeu=Pnu(Xeu)+εeu{\ displaystyle Y_ {i} = P_ {n} (X_ {i}) + \ varepsilon _ {i}}reziduul ε i , sau perturbare, fiind „cel mai mic” în sensul celor mai mici pătrate .
Regresia polinomială este o regresie liniară multiplă : putem scrie relația, pentru X i , p = Xp
i :
Daeu=lanu⋅Xeu,nu+lanu-1⋅Xeu,nu-1+...+la1⋅Xeu,1+la0+εeu.{\ displaystyle Y_ {i} = a_ {n} \ cdot X_ {i, n} + a_ {n-1} \ cdot X_ {i, n-1} + \ ldots + a_ {1} \ cdot X_ {i , 1} + a_ {0} + \ varepsilon _ {i}.}Cazuri speciale
Regresia liniară este o regresie polinomială de gradul 1.
Aplicații
Un anumit număr de legi fizice sunt exprimate sub formă de polinoame. Regresia polinomială face posibilă estimarea valorilor parametrilor legii.
Metoda de netezire și derivare Savitzky-Golay utilizează regresia polinomială pe un interval de alunecare.
Rezoluție minimă pătrate
Luați în considerare un set de date ( X i , Y i ) 1 ≤ i ≤ n . Vrem să realizăm o regresie printr-un polinom de gradul trei:
P3(X)=laX3+bX2+vs.X+d.{\ displaystyle P_ {3} (x) = ax ^ {3} + bx ^ {2} + cx + d.}Pătratul reziduului este scris:
ε(X,y)2=(P3(X)-y)2{\ displaystyle \ varepsilon (x, y) ^ {2} = \ left (P_ {3} (x) -y \ right) ^ {2}}este
ε(X,y)2= X6la2+2X5lab+2X4lavs.+2X3lad-2X3yla+X4b2+2X3bvs.+2X2bd-2X2yb+X2vs.2+2Xvs.d-2Xyvs.+d2-2yd+y2.{\ displaystyle {\ begin {align} \ varepsilon (x, y) ^ {2} = \ x ^ {6} a ^ {2} + 2x ^ {5} ab + 2x ^ {4} ac + 2x ^ { 3} ad-2x ^ {3} ya \\ + x ^ {4} b ^ {2} + 2x ^ {3} bc + 2x ^ {2} bd-2x ^ {2} yb \\ + x ^ { 2} c ^ {2} + 2xcd-2xyc \\ + d ^ {2} -2yd \\ + y ^ {2} {\ text {.}} \ End {align}}}Observăm apoi:
εeu: =ε(Xeu,Daeu){\ displaystyle \ varepsilon _ {i}: = \ varepsilon (X_ {i}, Y_ {i})}Valorile a , b , c , d minimizează suma pătratelor reziduurilor e :
e=∑euεeu2{\ displaystyle e = \ sum _ {i} \ varepsilon _ {i} ^ {2}}Noi sunam
Sj=∑euXeuj{\ displaystyle \ mathrm {S} _ {j} = \ sum _ {i} \ mathrm {X} _ {i} ^ {j}}și
Tj=∑euXeujDaeu{\ displaystyle \ mathrm {T} _ {j} = \ sum _ {i} \ mathrm {X} _ {i} ^ {j} \ mathrm {Y} _ {i}}Dacă parametrul a este mai mare sau mai mic, valoarea lui e crește. Valoarea e este minimă pentru o solicitată, adică să spunem, derivata parțială a e cu privire la un trebuie să fie zero:
∂e∂la=0⟹2laS6+2bS5+2vs.S4+2dS3-2T3=0{\ displaystyle {\ frac {\ partial e} {\ partial a}} = 0 \ Longrightarrow 2a \ mathrm {S} _ {6} + 2b \ mathrm {S} _ {5} + 2c \ mathrm {S} _ {4} + 2d \ mathrm {S} _ {3} -2 \ mathrm {T} _ {3} = 0}.
Putem face același lucru pentru fiecare parametru, care oferă un sistem de ecuații liniare :
(S6S5S4S3S5S4S3S2S4S3S2S1S3S2S1S0)⋅(labvs.d)=(T3T2T1T0).{\ displaystyle {\ begin {pmatrix} \ mathrm {S} _ {6} & \ mathrm {S} _ {5} & \ mathrm {S} _ {4} & \ mathrm {S} _ {3} \\ \ mathrm {S} _ {5} & \ mathrm {S} _ {4} & \ mathrm {S} _ {3} & \ mathrm {S} _ {2} \\\ mathrm {S} _ {4} & \ mathrm {S} _ {3} & \ mathrm {S} _ {2} & \ mathrm {S} _ {1} \\\ mathrm {S} _ {3} & \ mathrm {S} _ {2 } & \ mathrm {S} _ {1} & \ mathrm {S} _ {0} \ end {pmatrix}} \ cdot {\ begin {pmatrix} a \\ b \\ c \\ d \ end {pmatrix} } = {\ begin {pmatrix} \ mathrm {T} _ {3} \\\ mathrm {T} _ {2} \\\ mathrm {T} _ {1} \\\ mathrm {T} _ {0} \ end {pmatrix}} {\ text {.}}}Vezi și tu
<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">