Cám ơn bài chia set của bác Toàn.
Em đang muốn ứng dụng Langchain vào xây dựng chatbot thì phải tiếp cận như nào vậy bác, em chưa có kinh nghiệm nhiều về Python.
@huukimit ý tưởng ci retry và pr/mr e thấy cũng khá ổn, nhưng có một cái bất cập ở khoản ci/cd chạy khá lâu
có cách nào tối ưu về phần build và kiểu build done mới replace image không anh nhỉ?
Vì nó không nằm trong phạm trù của bài viết và giải thích thì nó cũng hơi dài một tý nên mình sẽ nói ngắn gọn như sau:
Ở một số task, khi thực hiện fine-tuning thì ta thường sẽ finetune với toàn bộ parameters của model: như các bài toán Object Detection sẽ có model pre-trained với ImageNet, và toàn bộ model đó sẽ được fine-tune vs COCO. Và nếu fine-tune với toàn bộ model như thế thì sẽ xảy ra hiện tượng model sẽ quên đi rất nhiều features của task cũ, còn adapters thì không
Với các bài toán multi-task learning, có 2 cách thực hiện: train toàn bộ các task cùng một lúc HOẶC train tuần tự các task. Với việc train toàn bộ các task cùng một lúc thì model sẽ bị khó tối ưu, khó cân bằng dữ liệu yada yada. Còn nếu train tuần tự các task thì như ở trên, model sẽ dần lãng quên features của task trước đó. Để giải quyết vấn đề multi-task learning với Adapter thì bạn có thể đọc paper: "AdapterFusion: Non-Destructive Task Composition for Transfer Learning" nhé
$ ./mvn clean package
/bin/bash: line 131: ./mvn: No such file or directory
Cleaning up project directory and file based variables
00:01
ERROR: Job failed: exit code 1
Bài viết rất hay và dễ hiểu. Cơ mà đoạn lý do cho việc dùng adapter là "vấn đề lãng quên task cũ của model khi thực hiện fine-tuning trên task mới", chỗ này mình vẫn chưa hiểu lắm, có phải ý bạn là việc fine-tuning thông thường sẽ làm model lãng quên task cũ còn adapter thì không? Cảm ơn bạn vì bài viết giá trị.
THẢO LUẬN
Bài viết hay quá. Cảm ơn tác giả ạ 😍
bài viết có tâm quá chị ơi. Cảm ơn chị nhiều ạ
Cảm ơn bạn. Bài này rất bổ ích và dễ hiểu
Tổng hợp một số backlink profile năm 2023:
https://www.plurk.com/motchill
https://www.scoop.it/u/motchillz-tv-gmail-com
https://dzone.com/users/4950191/motchilltv.html
https://www.pearltrees.com/motchilltv
https://visual.ly/users/motchillztv/portfolio
https://www.behance.net/tvmotchill
https://about.me/motchilltv
https://independent.academia.edu/tvmotchill
https://www.last.fm/user/motchilltv
https://linktr.ee/motchilltv
https://trailblazer.me/id/motchilltv
https://beacons.ai/motchilltv
https://www.proko.com/@motchilltv/activity
https://codepen.io/tv-motchill
https://profiles.wordpress.org/motchillz/
https://www.catchafire.org/profiles/2438557/
https://imageshack.com/user/motchill
https://serverfault.com/users/1033136/motchill
https://dribbble.com/motchilltv
https://www.diggerslist.com/motchilltv/about
https://www.pinterest.com/motchilltv
https://trailblazer.me/id/motchill-phim
https://www.pling.com/u/motchill
https://onlyfans.com/motchill-phim
@gawrgura có dự án nào triển khai thực tế, hoặc có video ko bạn
Nghe khá phức tạp nhỉ
+1 bổ ích
Cám ơn bài chia set của bác Toàn. Em đang muốn ứng dụng Langchain vào xây dựng chatbot thì phải tiếp cận như nào vậy bác, em chưa có kinh nghiệm nhiều về Python.
https://skinmodpro.com/ https://skinmodpro.com/lienminh https://skinmodpro.com/lienquan
hay quá, cảm ơn anh
Bạn đã giúp mình có 1 flow code 1 cách tuần tự hơn. Cám ơn bạn
ké backlink cho https://motchillz.tv:
https://www.plurk.com/motchill https://www.scoop.it/u/motchillz-tv-gmail-com https://dzone.com/users/4950191/motchilltv.html https://www.pearltrees.com/motchilltv https://visual.ly/users/motchillztv/portfolio https://www.behance.net/tvmotchill https://about.me/motchilltv https://independent.academia.edu/tvmotchill https://www.last.fm/user/motchilltv https://linktr.ee/motchilltv https://trailblazer.me/id/motchilltv https://beacons.ai/motchilltv https://www.proko.com/@motchilltv/activity https://codepen.io/tv-motchill https://profiles.wordpress.org/motchillz/ https://www.catchafire.org/profiles/2438557/ https://imageshack.com/user/motchill https://serverfault.com/users/1033136/motchill https://dribbble.com/motchilltv https://www.diggerslist.com/motchilltv/about https://www.pinterest.com/motchilltv/ https://trailblazer.me/id/motchill-phim https://www.pling.com/u/motchill https://onlyfans.com/motchill-phim
ké backlink ạ: https://www.plurk.com/motchill https://www.scoop.it/u/motchillz-tv-gmail-com https://dzone.com/users/4950191/motchilltv.html https://www.pearltrees.com/motchilltv https://visual.ly/users/motchillztv/portfolio https://www.behance.net/tvmotchill https://about.me/motchilltv https://independent.academia.edu/tvmotchill https://www.last.fm/user/motchilltv https://linktr.ee/motchilltv https://trailblazer.me/id/motchilltv https://beacons.ai/motchilltv https://www.proko.com/@motchilltv/activity https://codepen.io/tv-motchill https://profiles.wordpress.org/motchillz/ https://www.catchafire.org/profiles/2438557/ https://imageshack.com/user/motchill https://serverfault.com/users/1033136/motchill https://dribbble.com/motchilltv https://www.diggerslist.com/motchilltv/about https://www.pinterest.com/motchilltv/ https://trailblazer.me/id/motchill-phim https://www.pling.com/u/motchill https://onlyfans.com/motchill-phim
@huukimit ý tưởng ci retry và pr/mr e thấy cũng khá ổn, nhưng có một cái bất cập ở khoản ci/cd chạy khá lâu có cách nào tối ưu về phần build và kiểu build done mới replace image không anh nhỉ?
Chờ phần tiếp theo
Vì nó không nằm trong phạm trù của bài viết và giải thích thì nó cũng hơi dài một tý nên mình sẽ nói ngắn gọn như sau:
Ở một số task, khi thực hiện fine-tuning thì ta thường sẽ finetune với toàn bộ parameters của model: như các bài toán Object Detection sẽ có model pre-trained với ImageNet, và toàn bộ model đó sẽ được fine-tune vs COCO. Và nếu fine-tune với toàn bộ model như thế thì sẽ xảy ra hiện tượng model sẽ quên đi rất nhiều features của task cũ, còn adapters thì không
Với các bài toán multi-task learning, có 2 cách thực hiện: train toàn bộ các task cùng một lúc HOẶC train tuần tự các task. Với việc train toàn bộ các task cùng một lúc thì model sẽ bị khó tối ưu, khó cân bằng dữ liệu yada yada. Còn nếu train tuần tự các task thì như ở trên, model sẽ dần lãng quên features của task trước đó. Để giải quyết vấn đề multi-task learning với Adapter thì bạn có thể đọc paper: "AdapterFusion: Non-Destructive Task Composition for Transfer Learning" nhé
Thank anh
@ledangtuanbk dùng excel mà gen ra sql statement bạn ơi. Muốn 1000, 10000 hơn 100000 records gì đều được
$ ./mvn clean package /bin/bash: line 131: ./mvn: No such file or directory Cleaning up project directory and file based variables 00:01 ERROR: Job failed: exit code 1
em gặp lỗi như vậy thì fix sao ạ
Bài viết rất hay và dễ hiểu. Cơ mà đoạn lý do cho việc dùng adapter là "vấn đề lãng quên task cũ của model khi thực hiện fine-tuning trên task mới", chỗ này mình vẫn chưa hiểu lắm, có phải ý bạn là việc fine-tuning thông thường sẽ làm model lãng quên task cũ còn adapter thì không? Cảm ơn bạn vì bài viết giá trị.