Logo pl.boatexistence.com

Dlaczego stochastyczne opadanie gradientowe?

Spisu treści:

Dlaczego stochastyczne opadanie gradientowe?
Dlaczego stochastyczne opadanie gradientowe?

Wideo: Dlaczego stochastyczne opadanie gradientowe?

Wideo: Dlaczego stochastyczne opadanie gradientowe?
Wideo: Stochastic Gradient Descent, Clearly Explained!!! 2024, Może
Anonim

Według starszego naukowca zajmującego się danymi, jedną z wyraźnych zalet korzystania ze stochastycznego spadku gradientu jest to, że wykonuje obliczenia szybciej niż opadanie gradientu i opadanie gradientu partii … Również na ogromne zbiory danych, stochastyczne opadanie gradientu może przebiegać szybciej, ponieważ aktualizacje są wykonywane częściej.

Do czego służy Stochastic Gradient Descent?

Stochastyczne opadanie gradientu to algorytm optymalizacji często używany w aplikacjach uczenia maszynowego do znajdowania parametrów modelu, które najlepiej pasują do przewidywanych i rzeczywistych wyników Jest to niedokładna, ale potężna technika. Stochastyczne opadanie gradientu jest szeroko stosowane w aplikacjach uczenia maszynowego.

Dlaczego musimy używać Stochastic Gradient Descent zamiast standardowego Gradient Descent do trenowania splotowej sieci neuronowej?

Stochastyczny spadek gradientu aktualizuje parametry dla każdej obserwacji, co prowadzi do większej liczby aktualizacji. Jest to więc szybsze podejście, które pomaga w szybszym podejmowaniu decyzji. Szybsze aktualizacje w różnych kierunkach można zauważyć w tej animacji.

Dlaczego preferujemy zejście pochyłe?

Głównym powodem, dla którego metoda gradientu jest używana do regresji liniowej, jest złożoność obliczeniowa: obliczenie tańsze (szybsze) jest znalezienie rozwiązania przy użyciu metody gradientu w niektórych przypadkach. Tutaj musisz obliczyć macierz X′X, a następnie ją odwrócić (patrz uwaga poniżej). To kosztowna kalkulacja.

Dlaczego używa się SGD?

Stochastyczne opadanie gradientu (często w skrócie SGD) to iteracyjna metoda optymalizacji funkcji celu o odpowiednich właściwościach gładkości (np. różniczkowalna lub podróżniczkowalna).

Zalecana: