Asked Oct 29th, 2022 3:28 p.m. 38 0 0
  • 38 0 0
0

Neural Machine Translation

Share
  • 38 0 0

Em đang thực hiện 1 project về Dịch Máy với mô hình Seq2Seq attention, để nâng cao độ chính xác thì em đang muốn sử dụng Bi-LSTM và LSTM sâu cho mô hình. Mọi người cho em hỏi là triển khai Attention ở loại mô hình này như thế nào ạ? Nó có khác gì triển khai Attention với mạng LSTM 1 layer ko ạ?

Viblo
Let's register a Viblo Account to get more interesting posts.