Apache MXNet este un cadru de învățare profundă open source folosit pentru antrenarea și implementarea rețelelor neuronale profunde . Este scalabil și permite antrenarea rapidă a modelelor. Suportă un model de programare flexibil și mai multe limbaje de programare (inclusiv C ++ , Python , Julia , Matlab , JavaScript , Go , R , Scala , Perl )
Biblioteca MXNet este mobil și se poate adapta la mai multe unități de procesare grafică și mai multe mașini. MXNet este sprijinit de furnizorul de nor publice , inclusiv Amazon Web Services (AWS) și Microsoft Azure . Amazon a ales MXNet ca cadrul de învățare profundă pentru AWS. MXNet este susținut în prezent de Intel , Baidu , Microsoft , Wolfram Research și institute de cercetare din instituții precum Carnegie Mellon , MIT , Universitatea din Washington și Universitatea de Știință și Tehnologie din Hong Kong .
Apache MXNet este un material usor, flexibil, și ultra-scalabile cadru de învățare profundă , care sprijină profund modele de învățare, inclusiv convoluțional Retele neuronale (CNN) și rețele pe termen scurt și pe termen lung de memorie recurente , memorie -Term Pe scurt (LSTM).
MXNet este proiectat pentru a fi distribuit pe o infrastructură cloud dinamică, utilizând un server de setări distribuite (pe baza cercetărilor realizate de Universitatea Carnegie Mellon , Baidu și Google ) și poate ajunge la o scară aproape liniară cu mai multe GPU-uri sau procesoare .
MXNet acceptă atât programarea imperativă, cât și cea simbolică, permițând dezvoltatorilor familiarizați cu programarea imperativă să învețe despre învățarea profundă. De asemenea, facilitează urmărirea, depanarea, salvarea punctelor de control, modificarea hiperparametrelor , cum ar fi rata de învățare sau opririle timpurii.
Suport C ++ pentru un backend optimizat pentru a profita la maximum de GPU sau CPU disponibile, precum și Python , R , Scala , Clojure , Julia , Perl , MATLAB și JavaScript pentru o interfață simplă pentru dezvoltatori.
Suportă implementarea eficientă a unui model instruit pe dispozitive low-end pentru inferență, cum ar fi dispozitive mobile (folosind Amalgamation), dispozitive Internet of Things (folosind AWS Greengrass), calculatoare fără server (folosind AWS Lambda) sau containere. Aceste medii low-end pot avea doar un procesor mai mic sau memorie limitată (RAM) și ar trebui să poată utiliza modele instruite într-un mediu de nivel superior (cluster bazat pe GPU, de exemplu).