Vă puteți împărtăși cunoștințele îmbunătățindu-le ( cum? ) Conform recomandărilor proiectelor corespunzătoare .
Consultați lista sarcinilor care trebuie îndeplinite pe pagina de discuții .
StimulareaSubclasă | Metaheuristic |
---|---|
Aspect al | Învățare supravegheată |
Dinamizarea este un domeniu de mașină de învățare (ramură a inteligenței artificiale ). Este un principiu care reunește mulți algoritmi care se bazează pe seturi de clasificatori binari: creșterea optimizează performanța lor.
Principiul provine din combinația de clasificatori (numiți și ipoteze). Prin iterații succesive, cunoștințele unui clasificator slab - clasificator slab - se adaugă clasificatorului final - clasificator puternic .
Noi numim cursant slab un algoritm care furnizează clasificatori slabi, capabili să recunoască două clase cel puțin la fel de bine cum ar face șansa (adică nu este greșit mai mult de o dată la două în medie, dacă distribuția claselor este echilibrată). Clasificatorul furnizat este ponderat de calitatea clasificării sale: cu cât se clasifică mai bine, cu atât va fi mai important. Exemplele neclasificate sunt amplificate astfel încât să aibă o importanță mai mare față de cursantul slab în runda următoare, astfel încât să suplinească lipsa.
Unul dintre cei mai utilizați algoritmi în boosting se numește AdaBoost , prescurtare pentru boosting adaptiv .
Stimularea se bazează pe teoria învățării CAP .
Metoda Adaboost poate fi văzută ca un caz special al metodei greutății multiplicative .