Bài viết rất hay. Phần hash password có thể dùng trang này để hash luôn https://bcrypt-generator.com
chúc mừng bạn
Cảm ơn bạn nhiều ạ!
Ok
Chào anh, anh cho em hỏi nếu em muốn tokenize các sentence này để build một vocabulary gồm các token và ids phục vụ cho embedding thì thông thường tokenize này thực hiện trên train data hay entire data ạ? em xin cảm ơn
cảm ơn em :v
cảm ơn bạn
@huukimit b có ví dụ ko b?
ko em nha, a không biết gì đâu
Chào bạn, theo mình biết thì nó sẽ kết hợp với nhau bằng cách concat lại với nhau rồi đưa vào mô hình Bi-LSTM
Ui ui sợ quá! Cảm ơn anh đã cảnh báo, tiện đây anh có thể cho em học nghệ bái sư được không ạ
Cảm ơn bạn
Bài viết hay quá, cảm ơn tác giả
Cảm ơn thông tin hữu ích của bạn !
@tnanhpt Bài viết của mình phía trên đó
Mình quên mất. Mình đã thêm vào rồi, cảm ơn bạn nhé.
Thôi, em dùng bếp từ cho đỡ đau đầu.
Mình nghĩ bạn nên thêm ảnh vào để người khác dễ hình dung và giúp đỡ bạn tốt hơn nhé
THẢO LUẬN
Bài viết rất hay. Phần hash password có thể dùng trang này để hash luôn https://bcrypt-generator.com
chúc mừng bạn
Cảm ơn bạn nhiều ạ!

Cảm ơn bạn nhiều ạ!

Ok
Chào anh, anh cho em hỏi nếu em muốn tokenize các sentence này để build một vocabulary gồm các token và ids phục vụ cho embedding thì thông thường tokenize này thực hiện trên train data hay entire data ạ? em xin cảm ơn
cảm ơn em :v
cảm ơn bạn
@huukimit b có ví dụ ko b?
ko em nha, a không biết gì đâu
Chào bạn, theo mình biết thì nó sẽ kết hợp với nhau bằng cách concat lại với nhau rồi đưa vào mô hình Bi-LSTM
Ui ui sợ quá! Cảm ơn anh đã cảnh báo, tiện đây anh có thể cho em học nghệ bái sư được không ạ
Cảm ơn bạn
Bài viết hay quá, cảm ơn tác giả
Cảm ơn thông tin hữu ích của bạn !
@tnanhpt Bài viết của mình phía trên đó
Mình quên mất. Mình đã thêm vào rồi, cảm ơn bạn nhé.
Thôi, em dùng bếp từ cho đỡ đau đầu.
Mình nghĩ bạn nên thêm ảnh vào để người khác dễ hình dung và giúp đỡ bạn tốt hơn nhé