Stimularea

Acest articol este un proiect preliminar privind probabilitățile și statisticile .

Vă puteți împărtăși cunoștințele îmbunătățindu-le ( cum? ) Conform recomandărilor proiectelor corespunzătoare .

Consultați lista sarcinilor care trebuie îndeplinite pe pagina de discuții .

Stimularea
Subclasă Metaheuristic
Aspect al Învățare supravegheată

Dinamizarea este un domeniu de mașină de învățare (ramură a inteligenței artificiale ). Este un principiu care reunește mulți algoritmi care se bazează pe seturi de clasificatori binari: creșterea optimizează performanța lor.

Principiul provine din combinația de clasificatori (numiți și ipoteze). Prin iterații succesive, cunoștințele unui clasificator slab - clasificator slab - se adaugă clasificatorului final - clasificator puternic .

Noi numim cursant slab un algoritm care furnizează clasificatori slabi, capabili să recunoască două clase cel puțin la fel de bine cum ar face șansa (adică nu este greșit mai mult de o dată la două în medie, dacă distribuția claselor este echilibrată). Clasificatorul furnizat este ponderat de calitatea clasificării sale: cu cât se clasifică mai bine, cu atât va fi mai important. Exemplele neclasificate sunt amplificate astfel încât să aibă o importanță mai mare față de cursantul slab în runda următoare, astfel încât să suplinească lipsa.

Unul dintre cei mai utilizați algoritmi în boosting se numește AdaBoost , prescurtare pentru boosting adaptiv .

Stimularea se bazează pe teoria învățării CAP .

Principalele metode legate de boosting

Metoda Adaboost poate fi văzută ca un caz special al metodei greutății multiplicative .

Alte metode conexe

Conexiuni