@nguyen.van.quan stop gradient nếu dùng soft label thì không cập nhật đâu ông, gradient của cross entropy là pi−∂li∂log(∑eli, nếu dùng soft label như code gốc thì gradient bằng 0.
Cá nhân mình thấy việc con người kể cả người làm về AI hay người bình thường sử dụng thì phải luôn ý thức được rằng giá trị trả về từ AI sẽ có sai số nhất định. Cho nên việc phải kiểm tra lại thông tin từ Chatgpt là bình thường, cũng giống như khi một người nào đó trả lời câu hỏi của mình hoặc nói với mình về 1 sự việc nào đó, liệu chúng ta có tin lời họ 100% hay không? hay lại phải đi hỏi 1 người khác. Về search engine, khi ta search 1 thông tin nào đó, chính chúng ta là người sẽ lựa chọn và kiểm tra tính đúng sai của thông tin, bản thân search engine cũng đâu tự phân biệt được đúng hay sai đâu, nó chỉ phân hạng thông tin dựa trên những quy định, mà quy định đó cũng chính từ con người đặt ra. Vậy nên tiếp nhận kết quả từ AI hay con người thì đều do chính bản thân mình quyết định.
@longyu mình deploy thành công sao nó báo lỗi này Composer detected issues in your platform: Your Composer dependencies require a PHP version ">= 8.1.0".
Hình như code như này thì stop gradient là ở target, còn logits không stop gradient thì vẫn có feedback signal cho teacher chứ. Còn việc bỏ stop gradient thì theo như tác giả là vẫn works, và có thể coi đây là 1 phương pháp hoàn toàn khác :
Ông cũng thấy code gốc hơi ngược phải không ? Tôi cũng đang chưa hiểu chỗ này, có người cũng hỏi về cái này nhưng mà tác giả không trả lời kỹ. Issue này mọi người cũng nói code tác giả sai nè : https://github.com/kekmodel/MPL-pytorch/issues/6. Issue này cũng có câu trả lời cho câu 1 luôn đấy: dùng hay bỏ MPL loss đều có kết quả tương tự nhau, ít nhất với các tập custom dataset nhỏ :v
Bảng so sánh var và let ở ngay phần 1, chỗ "có thể được khai báo mà không cần khởi tạo" phải nằm ở phần "Giống nhau" mới đúng chứ?
Còn lại thì đây là một bài viết cô đọng, ngắn gọn dễ hiểu, phù hợp với các bạn đang tìm hiểu JS ở trình độ cơ bản.
Xin cảm ơn!
Làm remote quả thực là con dao 2 lưỡi. Những tháng đầu mình được làm remote sau khi nhảy từ job làm ở office, đúng là cảm thấy tự do, thoải mái, cái cảm giác không bị ai giám sát, không phải đi xa, chịu cảnh đi sớm về muộn, ta nói nó đããaaa. Mà dần dần thấy chán hẳn, động lực làm việc sụt thê thảm, thèm có ai đó ngồi gần, vừa làm vừa tán dóc (mặc dù bản thân nc cũng nhạt vê lờ ra 😂) Đúng là cái gì cũng có cái giá của nó.
mục 2.3 có viết: "Trong biến const nếu trường hợp kiểu của biến là primitive (bao gồm string, number, boolean, null, và undefined) thì chúng ta sẽ không thể tái khai báo hay cập nhật giá trị mới để thay thế cho giá trị trước đó của biến."
Biến được khai báo bằng let hoặc const thì đều không tái khai báo được khi trong cùng 1 scope, chứ không bắt buộc là dạng primitive.
Bài viết rất hay và thú vị. REINFORCE chính xác là những gì ông giải thích, và có thể mở rộng ra phân bố liên tục.
Tôi có câu hỏi chỗ này
Nếu đúng như việc áp dụng REINFORCE, thì loss CE(y^u,T(xu)) chính là cross entropy của logits teacher hard label như trong paper. Nhưng trong code gốc, họ dùng stop gradient với soft label, do đó gradient sẽ bằng 0. Ông thử train lại mà bỏ loss meta pseudo này xem thế nào
Phần biến đổi h hình như phải khai triển tại θ′, vì gradient tính tại điểm này. Mà trong code gốc hình như họ đặt ngược lại, dot = loss_theta' - loss theta
THẢO LUẬN
@nguyen.van.quan stop gradient nếu dùng soft label thì không cập nhật đâu ông, gradient của cross entropy là pi−∂li∂log(∑eli, nếu dùng soft label như code gốc thì gradient bằng 0.
Cá nhân mình thấy việc con người kể cả người làm về AI hay người bình thường sử dụng thì phải luôn ý thức được rằng giá trị trả về từ AI sẽ có sai số nhất định. Cho nên việc phải kiểm tra lại thông tin từ Chatgpt là bình thường, cũng giống như khi một người nào đó trả lời câu hỏi của mình hoặc nói với mình về 1 sự việc nào đó, liệu chúng ta có tin lời họ 100% hay không? hay lại phải đi hỏi 1 người khác. Về search engine, khi ta search 1 thông tin nào đó, chính chúng ta là người sẽ lựa chọn và kiểm tra tính đúng sai của thông tin, bản thân search engine cũng đâu tự phân biệt được đúng hay sai đâu, nó chỉ phân hạng thông tin dựa trên những quy định, mà quy định đó cũng chính từ con người đặt ra. Vậy nên tiếp nhận kết quả từ AI hay con người thì đều do chính bản thân mình quyết định.
Cảm ơn bài viết của anh đã cung cấp cho người đọc nhưng góc nhìn thực tế nhất từ GPT.
PaLM công bố từ Apr2022 đã có 540 tỉ param.
po*nhub kiếm 50m user chỉ sau có 19 ngày =)) reddit
@linh11102000 Cảm ơn em về một comment không phải generate từ ChatGPT nha. 😝
Bài viết hay quá. Cảm ơn anh với một góc nhìn rất hay và thực tế về con ChatGPT này ạ
cảm ơn anh ạ
con người là giống loài xã hội mà ^^
@longyu mình deploy thành công sao nó báo lỗi này Composer detected issues in your platform: Your Composer dependencies require a PHP version ">= 8.1.0".
Cho anh em nào đang học tiếng nhật là chính
. (mà cụ thể là để tôi luyện lấy cái N1 ấy mà)
@huukimit Ông viết nhiều bài hay ghê (đỉnh vãi)
Sau hàng tá giờ tìm tòi thì t cũng biết cách làm cho nó chạy, nhưng t không biết tại sao nó chạy:
Ad cho mình hỏi tại sao lại có lỗi này nhỉ?
Oke anh dai :3
Hình như code như này thì stop gradient là ở target, còn logits không stop gradient thì vẫn có feedback signal cho teacher chứ. Còn việc bỏ stop gradient thì theo như tác giả là vẫn works, và có thể coi đây là 1 phương pháp hoàn toàn khác :
Thật là sơ suất quá, mình chụp màn hình bị sai chỗ. Cảm ơn bạn đã chỉ ra giúp mình, mình đã update lại bài viết ạ
Bảng so sánh var và let ở ngay phần 1, chỗ "có thể được khai báo mà không cần khởi tạo" phải nằm ở phần "Giống nhau" mới đúng chứ? Còn lại thì đây là một bài viết cô đọng, ngắn gọn dễ hiểu, phù hợp với các bạn đang tìm hiểu JS ở trình độ cơ bản. Xin cảm ơn!
Làm remote quả thực là con dao 2 lưỡi. Những tháng đầu mình được làm remote sau khi nhảy từ job làm ở office, đúng là cảm thấy tự do, thoải mái, cái cảm giác không bị ai giám sát, không phải đi xa, chịu cảnh đi sớm về muộn, ta nói nó đããaaa. Mà dần dần thấy chán hẳn, động lực làm việc sụt thê thảm, thèm có ai đó ngồi gần, vừa làm vừa tán dóc (mặc dù bản thân nc cũng nhạt vê lờ ra 😂) Đúng là cái gì cũng có cái giá của nó.
mục 2.3 có viết: "Trong biến const nếu trường hợp kiểu của biến là primitive (bao gồm string, number, boolean, null, và undefined) thì chúng ta sẽ không thể tái khai báo hay cập nhật giá trị mới để thay thế cho giá trị trước đó của biến." Biến được khai báo bằng let hoặc const thì đều không tái khai báo được khi trong cùng 1 scope, chứ không bắt buộc là dạng primitive.
Bài viết rất hay và thú vị. REINFORCE chính xác là những gì ông giải thích, và có thể mở rộng ra phân bố liên tục. Tôi có câu hỏi chỗ này
Nếu đúng như việc áp dụng REINFORCE, thì loss CE(y^u,T(xu)) chính là cross entropy của logits teacher hard label như trong paper. Nhưng trong code gốc, họ dùng stop gradient với soft label, do đó gradient sẽ bằng 0. Ông thử train lại mà bỏ loss meta pseudo này xem thế nào
Phần biến đổi h hình như phải khai triển tại θ′, vì gradient tính tại điểm này. Mà trong code gốc hình như họ đặt ngược lại, dot = loss_theta' - loss theta
chào bạn cái bước xoá thư mục public kia lỡ xoá luôn thư mục web thì sao,thư mục laravel đó