반응형 Seq2Seq2 [DL][NLP] Seq2Seq 예제 (Pytorch) 이전 Seq2Seq 글을 보고오시면 좋습니다 ! [DL][NLP] Seq2Seq(Seqence to Sequence) 모델RNN에 대해 먼저 알고 보면 더 이해가 쉽습니다 !2024.08.26 - [DL/RNN] - [DL][RNN] RNN(Recurrent Neural Network, 순환 신경망) 구조 [DL][RNN] RNN(Recurrent Neural Network, 순환 신경망) 구조앞선 글에서 RNN에 대해 간략self-objectification.tistory.com 1. EncoderSeq2Seq의 Encoder에서는 Input Sequence의 모든 단어들을 순차적으로 입력받은 뒤 마지막에 이 모든 단어 정보를 압축하여 Context Vector(RNN의 마지막 Hidden State).. 2024. 10. 28. [DL][NLP] Seq2Seq(Seqence to Sequence) 모델 RNN에 대해 먼저 알고 보면 더 이해가 쉽습니다 ! [DL][RNN] RNN(Recurrent Neural Network, 순환 신경망) 구조앞선 글에서 RNN에 대해 간략하게 알아보았습니다 [DL][RNN] RNN(Recurrent Neural Network, 순환 신경망) IntroduceRNN(Recurrent Neural Network, 순환 신경망) 이란?RNN이란 시간적으로 연속성이 있는 데이터를 처리self-objectification.tistory.com 1. 전통적인 RNN 기반의 기계 번역 발전 과정Seq2Seq 모델은 이후에 살펴보겠지만 Input Sequence를 고정된 크기의 Context Vector로 Encoding하여 Output sequence를 생성하는 방식이다. 하지.. 2024. 10. 28. 이전 1 다음 반응형