Yêu cầu thg 10 29, 2022 3:28 CH 43 0 0
  • 43 0 0
0

Neural Machine Translation

Chia sẻ
  • 43 0 0

Em đang thực hiện 1 project về Dịch Máy với mô hình Seq2Seq attention, để nâng cao độ chính xác thì em đang muốn sử dụng Bi-LSTM và LSTM sâu cho mô hình. Mọi người cho em hỏi là triển khai Attention ở loại mô hình này như thế nào ạ? Nó có khác gì triển khai Attention với mạng LSTM 1 layer ko ạ?

Viblo
Hãy đăng ký một tài khoản Viblo để nhận được nhiều bài viết thú vị hơn.
Đăng kí