Teorema lui Cover

Capacul teoremă este o declarație a teoriei învățării mașinii și este una dintre principalele motivații teoretice pentru utilizarea kernel truc neliniară în aplicații de învățare mașină . Teorema afirmă că, având în vedere un set de date de antrenament care nu este separabil printr-un clasificator liniar , se poate transforma cu mare probabilitate într-un set care poate fi separat liniar prin proiectarea acestuia într-un spațiu cu dimensiuni superioare prin intermediul unei transformări neliniare. Teorema este numită după teoreticianul informației Thomas M. Cover care a declarat-o în 1965. În propria formulare, se citește după cum urmează:

„  O problemă complexă de clasificare a modelelor, aruncată într-un spațiu cu dimensiuni ridicate neliniar, este mai probabil să fie separabilă liniar decât într-un spațiu cu dimensiuni reduse, cu condiția ca spațiul să nu fie dens populat.  "

Demonstrație

Dat fiind eșantioane, le asociem cu vârfurile unui simplex în spațiul dimensional real . Deoarece fiecare partiție a probelor în două seturi este separabilă printr-un separator liniar, urmează teorema.

Note și referințe

  1. „O problemă complexă de clasificare a modelelor, transpusă neliniar într-un spațiu cu dimensiuni ridicate, este mai probabil să fie separabilă liniar decât într-un spațiu cu dimensiuni reduse, cu condiția ca spațiul să nu fie dens populat.”.
(fr) Acest articol este preluat parțial sau în totalitate din articolul Wikipedia în limba engleză intitulat „  Cover's teorema  ” (a se vedea lista autorilor ) .

Articol asociat

<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">