0
Neural Machine Translation
Em đang thực hiện 1 project về Dịch Máy với mô hình Seq2Seq attention, để nâng cao độ chính xác thì em đang muốn sử dụng Bi-LSTM và LSTM sâu cho mô hình. Mọi người cho em hỏi là triển khai Attention ở loại mô hình này như thế nào ạ? Nó có khác gì triển khai Attention với mạng LSTM 1 layer ko ạ?
Thêm một bình luận