안녕하세요! 오늘은 바닐라 RNN의 장기 의존성 문제를 보완한 RNN 모델인 LSTM과 GRU에 대해 알아보겠습니다. 1. LSTM 1-1. 삭제 게이트 1-2. 입력 게이트 1-3. 셀 상태 (장기 상태) 1-4. 출력 게이트와 은닉 상태 (단기 상태) 2. GRU 1. LSTM LSTM은 은닉층의 메모리 셀에 삭제 게이트, 입력 게이트, 출력 게이트를 추가하여 필요하지 않은 기억은 지우고, 기억해야 할 정보를 저장합니다. LSTM은 바닐라 RNN에 비해 은닉 상태를 계산하는 식이 더 복잡해졌으며 셀 상태라는 값을 추가했습니다. 아래의 그림에서 t시점의 셀 상태를 C(t)로 표현하고 있습니다. LSTM은 RNN과 비교하여 긴 시퀀스의 입력을 처리하는데 뛰어납니다. LSTM의 전체적인 흐름은 다음과 같습..