THẢO LUẬN

Hi, góp ý tác giả chút, thẻ H1 chỉ nên dùng cho tiêu đề, còn lại trong bài viết nên dùng H2->H4 theo level sẽ dễ đọc hơn, full H1 đau mắt quá 😅

+1

Anh ơi repo của anh ko vào đc nữa ạ?

0
Jul 10th, 2023 4:05 p.m.

bài viết rất hay ạ, cảm ơn tác giả

0
Jul 10th, 2023 3:55 p.m.

Bài viết hay quá. Cảm ơn tác giả ạ 😍

0

bài viết có tâm quá chị ơi. Cảm ơn chị nhiều ạ

0
Avatar
đã bình luận cho bài viết
Jul 10th, 2023 3:30 p.m.

Cảm ơn bạn. Bài này rất bổ ích và dễ hiểu

0

@gawrgura có dự án nào triển khai thực tế, hoặc có video ko bạn

0
Avatar
đã bình luận cho bài viết
Jul 10th, 2023 12:20 p.m.

Nghe khá phức tạp nhỉ

0

+1 bổ ích

0

Cám ơn bài chia set của bác Toàn. Em đang muốn ứng dụng Langchain vào xây dựng chatbot thì phải tiếp cận như nào vậy bác, em chưa có kinh nghiệm nhiều về Python.

0
Jul 10th, 2023 7:15 a.m.

hay quá, cảm ơn anh

+1

Bạn đã giúp mình có 1 flow code 1 cách tuần tự hơn. Cám ơn bạn

0

@huukimit ý tưởng ci retry và pr/mr e thấy cũng khá ổn, nhưng có một cái bất cập ở khoản ci/cd chạy khá lâu có cách nào tối ưu về phần build và kiểu build done mới replace image không anh nhỉ?

0
Jul 10th, 2023 1:14 a.m.

Chờ phần tiếp theo

+1

Vì nó không nằm trong phạm trù của bài viết và giải thích thì nó cũng hơi dài một tý nên mình sẽ nói ngắn gọn như sau:

Ở một số task, khi thực hiện fine-tuning thì ta thường sẽ finetune với toàn bộ parameters của model: như các bài toán Object Detection sẽ có model pre-trained với ImageNet, và toàn bộ model đó sẽ được fine-tune vs COCO. Và nếu fine-tune với toàn bộ model như thế thì sẽ xảy ra hiện tượng model sẽ quên đi rất nhiều features của task cũ, còn adapters thì không

Với các bài toán multi-task learning, có 2 cách thực hiện: train toàn bộ các task cùng một lúc HOẶC train tuần tự các task. Với việc train toàn bộ các task cùng một lúc thì model sẽ bị khó tối ưu, khó cân bằng dữ liệu yada yada. Còn nếu train tuần tự các task thì như ở trên, model sẽ dần lãng quên features của task trước đó. Để giải quyết vấn đề multi-task learning với Adapter thì bạn có thể đọc paper: "AdapterFusion: Non-Destructive Task Composition for Transfer Learning" nhé

0
Jul 9th, 2023 2:38 p.m.

Thank anh

0
Viblo
Hãy đăng ký một tài khoản Viblo để nhận được nhiều bài viết thú vị hơn.
Đăng kí