Dlaczego lstm rozwiązuje znikający gradient?

Spisu treści:

Dlaczego lstm rozwiązuje znikający gradient?
Dlaczego lstm rozwiązuje znikający gradient?

Wideo: Dlaczego lstm rozwiązuje znikający gradient?

Wideo: Dlaczego lstm rozwiązuje znikający gradient?
Wideo: Deep Learning 68: Solving Vanishing Gradient Problem in Long Short-Term Memory (LSTM) Architecture 2024, Listopad
Anonim

LSTM rozwiązują problem przy użyciu unikalnej struktury gradientu addytywnego, która obejmuje bezpośredni dostęp do aktywacji bramki zapominania, umożliwiając sieci zachęcanie do pożądanego zachowania z gradientu błędów przy użyciu częstej aktualizacji bramek na każdym etapie procesu uczenia się.

Jak LSTM rozwiązuje eksplodujący gradient?

Bardzo krótka odpowiedź: LSTM oddziela stan komórki (zazwyczaj oznaczany przez c) i ukrytą warstwę/wyjście (zazwyczaj oznaczane przez h) i wykonuje tylko dodatkowe aktualizacje do c, co sprawia, że pamięci w c są bardziej stabilne. W ten sposób przepływ gradientu przez c jest utrzymywany i trudny do zniknięcia (dlatego ogólny gradient jest trudny do zniknięcia).

Jak można rozwiązać problem znikającego gradientu?

Rozwiązania: Najprostszym rozwiązaniem jest użycie innych funkcji aktywacji, takich jak ReLU, które nie powodują małej pochodnej. Innym rozwiązaniem są sieci resztkowe, które zapewniają połączenia resztkowe bezpośrednio do wcześniejszych warstw.

Jaki problem rozwiązuje LSTM?

LSTM. LSTM (skrót od długiej pamięci krótkotrwałej) przede wszystkim rozwiązuje problem znikającego gradientu w propagacji wstecznej. LSTM używają mechanizmu bramkowania, który kontroluje proces zapamiętywania. Informacje w LSTM mogą być przechowywane, zapisywane lub odczytywane przez bramki, które otwierają się i zamykają.

Dlaczego LSTM powstrzymują twoje gradienty przed znikaniem widoku od tyłu?

Powodem tego jest to, że aby wymusić ten przepływ stałego błędu, obliczenia gradientu zostały obcięte, aby nie płynąć z powrotem do bramek wejściowych lub kandydujących.

Zalecana: