Perceptronului este o învățare supervizată algoritm de clasificatori binari (adică separă două clase). A fost inventat în 1957 de Frank Rosenblatt la Laboratorul de Aeronautică de la Universitatea Cornell. Este un neuron formal echipat cu o regulă de învățare care determină automat greutățile sinaptice astfel încât să separe o problemă de învățare supravegheată. Dacă problema este separabilă liniar, o teoremă asigură faptul că regula perceptronului permite găsirea unui separator între cele două clase.
Perceptronul poate fi văzut ca cel mai simplu tip de rețea neuronală . Este un clasificator liniar . Acest tip de rețea neuronală nu conține cicluri (este o rețea neuronală de propagare înainte ). În versiunea sa simplificată, perceptronul este cu un singur strat și are o singură ieșire (Boolean) la care sunt conectate toate intrările (Boolean). Mai general, intrările pot fi numere reale.
Un perceptron cu n intrări și o singură ieșire o este definit de datele de n greutăți (sau coeficienți sinaptici) și de o polarizare (sau prag) prin:
Ieșirea o rezultă apoi din aplicarea funcției Heaviside la potențialul postsinaptic , cu:
Această funcție neliniară se numește funcție de activare. O alternativă frecvent utilizat este tangenta hiperbolică .
Regula lui Hebb, stabilită de Donald Hebb , este o regulă de învățare a rețelelor neuronale artificiale în contextul ansamblurilor neuronale de studiu.
Această regulă sugerează că atunci când doi neuroni sunt excitați împreună, ei creează sau întăresc o legătură între ei.
În cazul unui singur neuron artificial care utilizează funcția de semn ca funcție de activare, aceasta înseamnă că:
unde reprezintă greutatea corectată și reprezintă etapa de învățare.
Din păcate, această regulă nu se aplică în unele cazuri, deși soluția există.
Perceptronul lui Frank Rosenblatt este foarte aproape de regula lui Hebb , diferența mare fiind că ține cont de eroarea observată la ieșire.
Această funcție este recomandată atunci când tangența hiperbolică (tanh) este utilizată ca funcție de activare.
= greutatea corectată
= ieșire așteptată
= ieșire observată
= rata de învățare
= intrarea în greutate pentru ieșirea preconizată
= greutatea actuală