반응형 RNN3 [DL][NLP] Seq2Seq(Seqence to Sequence) 모델 RNN에 대해 먼저 알고 보면 더 이해가 쉽습니다 ! [DL][RNN] RNN(Recurrent Neural Network, 순환 신경망) 구조앞선 글에서 RNN에 대해 간략하게 알아보았습니다 [DL][RNN] RNN(Recurrent Neural Network, 순환 신경망) IntroduceRNN(Recurrent Neural Network, 순환 신경망) 이란?RNN이란 시간적으로 연속성이 있는 데이터를 처리self-objectification.tistory.com 1. 전통적인 RNN 기반의 기계 번역 발전 과정Seq2Seq 모델은 이후에 살펴보겠지만 Input Sequence를 고정된 크기의 Context Vector로 Encoding하여 Output sequence를 생성하는 방식이다. 하지.. 2024. 10. 28. [DL][RNN] RNN(Recurrent Neural Network, 순환 신경망) 구조 앞선 글에서 RNN에 대해 간략하게 알아보았습니다 [DL][RNN] RNN(Recurrent Neural Network, 순환 신경망) IntroduceRNN(Recurrent Neural Network, 순환 신경망) 이란?RNN이란 시간적으로 연속성이 있는 데이터를 처리하기 위해 고안된 인공신경망이다'Recurrent'는 이전 은닉층이 현재 은닉층의 입력이 되면서 '반복되는self-objectification.tistory.com 이번 글에서는 RNN Cell과 RNN Layer의 구조 및 수식에 대해 깊게 공부해보고 PyTorch를 통해 구현해보도록 하겠습니다RNN(Recurrent Neural Network, 순환 신경망) 구조RNN은 은닉층 노드들이 연결되어 이전 단계 정보를 은닉층 노드에 저.. 2024. 8. 26. [DL][RNN] RNN(Recurrent Neural Network, 순환 신경망) Introduce RNN(Recurrent Neural Network, 순환 신경망) 이란?RNN이란 시간적으로 연속성이 있는 데이터를 처리하기 위해 고안된 인공신경망이다'Recurrent'는 이전 은닉층이 현재 은닉층의 입력이 되면서 '반복되는 순환 구로'를 갖는다는 의미이다RNN이 기존 네트워크와 다른 점은 기억(Memory)를 갖는다는 점이다여기서 기억이란 현재까지의 Input Data를 요약한 정보라고 생각하면 된다. 즉, 최종적으로 남겨진 기억은 모든 입력 전체를 요약한 정보라고 할 수 있다. 첫 번째 입력($x_1$)이 들어오면 첫 번째 기억($h_1$)이 만들어지고, 두 번째 입력($x_2$)이 들어오면 기존 기억($h_1$)과 새로운 입력을 참고하여 새 기억($h_2$)을 만든다 즉, 외부 입력과 자.. 2024. 8. 25. 이전 1 다음 반응형