Maxim regularizat

În matematică , un maxim regularizării ( neted maxim ) al unei familii indexată x 1 , ...,  x n de numere este o aproximare buna a maximă funcției max ( x 1 , ..., x n ) , adică o familie parametrizată de funcții m α ( x 1 , ..., x n ) astfel încât funcția m α este regulată pentru orice valoare reală a lui α și tinde spre funcția maximă pentru α → ∞ . Conceptul de minim reglementat poate fi definit într-un mod similar. În mai multe cazuri, o familie poate fi utilizată pentru a aproxima cele două funcții, maximul pentru valori pozitive foarte mari, minimul spre infinit negativ:

Termenul poate fi folosit pentru orice funcție de regularizare care se comportă similar cu funcția maximă, fără a fi parametrizată.

Exemple

Pentru valori mari ale parametrului α > 0 , funcția S α definită mai jos, uneori numită „  α -softmax”, este o aproximare lină și diferențiată a funcției maxime. Pentru valorile negative ale parametrului mare în valoare absolută, acesta se apropie de minim. Funcția α -softmax este definită de:

S α are următoarele proprietăți:

  1. S 0 returnează media aritmetică

Gradientul lui S α este legat de funcția softmax și este egal cu

Acest lucru face ca funcția softmax să fie interesantă pentru tehnicile de optimizare folosind coborârea în gradient .

Standarde Hölder

O formă de maxim regularizat se poate baza pe o medie generalizată . De exemplu, pentru valori pozitive x 1 , ..., x n , putem folosi o medie de ordine α > 1 , adică

LogSumExp

Un alt maxim regularizat este cunoscut sub numele „LogSumExp”:

Funcția poate fi normalizată dacă x i sunt toate pozitive, ducând la o funcție definită la [0, + ∞ [ n la [0, + ∞ [ :

Termenul ( n - 1) este un coeficient de corecție pentru a lua în considerare faptul că exp (0) = 1 , asigurând astfel că avem g (0, ..., 0) = 0 dacă toți x i sunt zero.

Funcția LogSumExp poate fi setată pentru a evita netezirea artefactelor. Numim acest formular „  α -quasimax”, definit prin:

Utilizare în metode numerice

Maximele netede sunt de interes în căutările extrema pe seturi de date discrete sau algoritmi de optimizare a coborârii în gradient.

Vezi și tu

Referințe

  1. (en) M. Lange, D. Zühlke, O. Holz și T. Villmann, „  Aplicații ale l p -norms și a lor aproximări ușoare pentru cuantificarea vectorului de învățare bazat pe gradient  ” , Proc. ESANN ,2014, p.  271-276 ( citiți online )
  2. (in) Gabor Takacs "  maxim Smooth algoritmi bazați pentru clasificare, regresie și filtrare de colaborare  " , Acta Technica Jaurinensis , vol.  3, n o  1,2010, p.  27-63


<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">