Cảm ơn anh đả quan tâm về những bài viết của em . Thực ra em có tập trung viết thì câu văn của em vẩn lủng củng mà thôi. Vì thực sự không có khiếu viết văn ạ . Đối với những người thực sự quan tâm đến ML thì bài viết như thế này người ta sẽ thừa biết là em đang đọc ở tài liệu nào rồi ạ . Còn về ML thì em đang nghiên cứu và chưa hiểu sâu lắm ạ .Nếu anh đọc từ bài đầu tiên thì sẽ thấy em note và nói ở mục tài liệu tham khảo ạ.
https://viblo.asia/p/opencv-with-python-part-1-924lJXQaKPM
Bạn check lại đoạn code di chuyển của con sên xem sao.
Vì Mỗi lần click x của nó += 10 (toạ độ hiện tại + thêm 10) nhé bạn.
Như vậy đoạn code của bạn sẽ sửa như sau:
chào anh , em đang đọc paper của minh thang luong va hieu pham thi thấy họ chia ra 2 loại attention là global attention và local attention . Về global attention thì có vẻ phần core khá giống bài viết của anh nhưng local attention thì có đề cập tới hard attention và soft attention và em đọc phần này vẫn chưa hiểu lắm . Vậy a có thể giải thích cho em cơ chế hoạt động của local attention cũng như hard và soft attention được không ạ ..
đây là link paper ạ https://arxiv.org/abs/1508.04025
THẢO LUẬN
bài viết rất bổ ích ạ

xem anime chứ ko đọc manga, dạo này drop nên chưa đến đoạn release truy nã mới :v
Em cảm ơn anh ạ .
Cảm ơn anh đả quan tâm về những bài viết của em . Thực ra em có tập trung viết thì câu văn của em vẩn lủng củng mà thôi. Vì thực sự không có khiếu viết văn ạ . Đối với những người thực sự quan tâm đến ML thì bài viết như thế này người ta sẽ thừa biết là em đang đọc ở tài liệu nào rồi ạ . Còn về ML thì em đang nghiên cứu và chưa hiểu sâu lắm ạ .Nếu anh đọc từ bài đầu tiên thì sẽ thấy em note và nói ở mục tài liệu tham khảo ạ. https://viblo.asia/p/opencv-with-python-part-1-924lJXQaKPM
good job
bài này đi cop à bạn
))
@HuyDQ Yehhh ... mình đã làm được , tks bạn nhiều : ))
@wiliamfeng đây nhé bạn
Mấy bạn cho mình hỏi thêm với , hình như phần
LayoutcủaANT - Designnày nó khôngresponsiveđược giống như bênBootstrapnhỉ:https://ant.design/components/grid/
Demo: https://codesandbox.io/s/w0jzyv6r68
@vigov5
Cảm ơn anh đã dành thời gian, chắc em cũng nên xem lại thử coi sao ạ!.
cái trên là ví dụ thôi bạn có thể sử dùng Regex này xem có vẻ được
@le.kienhoanh giờ mình vào thì thấy cả hai bên đều lỗi, có vẻ bạn cần xem lại config của thư viện PDF xem sao.
Good!
@HuyDQ ... hay quá, tks bạn nhiều nha
@wiliamfeng bạn có thể dùng react dev tool trên chrome và inspect component đó lên sẽ thấy danh sách các props mà nó có:
Hoặc bạn có thể thử cách này, khi gõ xong thì setState về ban đầu, Good luck!!
Bạn check lại đoạn code di chuyển của con sên xem sao. Vì Mỗi lần click x của nó += 10 (toạ độ hiện tại + thêm 10) nhé bạn. Như vậy đoạn code của bạn sẽ sửa như sau:
Hoặc bạn tham khảo thêm code mình đã update nhé. https://github.com/nguyentienhoang810/ImgSlide
bớ của bớ =))
chào anh , em đang đọc paper của minh thang luong va hieu pham thi thấy họ chia ra 2 loại attention là global attention và local attention . Về global attention thì có vẻ phần core khá giống bài viết của anh nhưng local attention thì có đề cập tới hard attention và soft attention và em đọc phần này vẫn chưa hiểu lắm . Vậy a có thể giải thích cho em cơ chế hoạt động của local attention cũng như hard và soft attention được không ạ .. đây là link paper ạ https://arxiv.org/abs/1508.04025