THẢO LUẬN

@HQuang Tôi hiểu rồi, cảm ơn ông nhé. Đúng là code như này thì gradient của MPL loss bằng 0 thật

0
thg 2 21, 2023 4:52 CH

Cảm ơn chủ bài viết, code này chạy ngon hơn code mình tìm được trên stackoverflow 😄

0

Hữu ích quá anh, em cũng đang tìm hiểu về nó

0
Avatar
đã bình luận cho bài viết
thg 2 21, 2023 2:04 CH

Cám ơn bạn

0
thg 2 21, 2023 12:56 CH

ChatGPT đang dùng chính user để phân biệt đúng sai và tối ưu hoá

0

Theo mình thấy thì sign với encrypt nó cũng như nhau thôi mà

0

Cho mình hỏi tại sao trong phần Giao dịch Bitcoin "Các node sẽ giải mã thông điệp để được nội dung giao dịch + private-key" nhỉ. Mình tưởng private key là không ai được biết chứ?

0
thg 2 21, 2023 10:31 SA

@huynhvinhdev Rất cảm ơn bạn vì đã quan tâm đến bài viết. Mình cũng hi vọng rằng bài viết này có thể được biết đến bởi mọi người để mỗi người đều hiểu được những điểm yếu của nó mà có cách sử dụng cho phù hợp. Rất cảm ơn bạn.

0
thg 2 21, 2023 10:10 SA

Bài viết hay và rất thời sự ạ, thật tình cần lắm những bài như vầy ^^, Dữ liệu đầu vào để train luôn là mối quan tâm khi nói về ML, AI, như anh đã có nói Dữ liệu không "sạch" thì lo thật sự, sau này mình sẽ nói chuyện với 1 con chatGPT với một mớ thông tin sai lệch, cuồng nó quá nó thao túng , sao này không biết đúng sai, "chết GPT" thật🤣

0
thg 2 21, 2023 10:07 SA

@Quan_Hoang_Danh Cảm ơn em nha. Share mạnh thôi

0
thg 2 21, 2023 10:07 SA

@princ3od Đúng vậy em ạ. Nếu như sử dụng các hệ thống AI một cách không có kiểm soát thì sẽ nảy sinh rất nhiều vấn đề. Đặc biệt là trong giáo dục hoặc các vấn đề về chính trị hay đạo đức nữa

0
thg 2 21, 2023 9:51 SA

Cho ví dụ sai rồi xoá bài đi, nói một hồi lú luôn làm đi test lại

0
thg 2 21, 2023 9:46 SA

Bài viết hay quá anh ạ, đan xen cả các thông tin lịch sử để lý giải cho hiện tại, đọc cuốn quá anh ạ

0
thg 2 21, 2023 9:45 SA

Post: https://twitter.com/yigitkonur/status/1627942436025602048?ref_src=twsrc^google|twcamp^serp|twgr^tweet

Btw, cái vấn đề anh đề cập GIGO có khi là rào cản rất lớn để AI tiếp tục phát triển. Internet tràn ngập bới AI generated content thì xào đi xào lại vẫn là đống đó thôi. Tượng tượng sau này mọi người sẽ mặc định: free content = AI-generated content, paid content = Human-generated content

0
thg 2 21, 2023 9:34 SA

@princ3od Nó là một nhược điểm lớn của hệ thống sử dụng LLM đó bạn. Nghe có chút tâm linh nhỉ

0

@nguyen.van.quan điểm khác biệt ở đây là y^u\hat y_u chính là output của teacher

y^u=softmax(T(xu))\hat y_u=softmax(T(x_u))

CE(y^u,T(xu)θ=CE(y^u,T(xu)T(xu)T(xu)θ=(((y^u)ilogsumexpT(xu)T(xu)i)dT(xu)i)T(xu)θ=(((y^u)iexp(T(xu)i)jexp(T(xu)j))dT(xu)i)T(xu)θ=(((y^u)i(y^u)i)dT(xu)i)T(xu)θ=0\frac{\partial CE(\hat y_u, T(x_u)}{\partial \theta} = \frac{\partial CE(\hat y_u, T(x_u)}{\partial T(x_u)} \frac{\partial T(x_u)}{\partial \theta} \\ = \left(\sum \left((\hat y_u)_i - \frac{\partial logsumexp T(x_u)}{\partial T(x_u)_i}\right)d T(x_u)_i\right) \frac{\partial T(x_u)}{\partial \theta} \\ = \left(\sum \left((\hat y_u)_i - \frac{\exp(T(x_u)_i)}{\sum_j \exp(T(x_u)_j)}\right)d T(x_u)_i\right) \frac{\partial T(x_u)}{\partial \theta} \\ = \left(\sum \left((\hat y_u)_i - (\hat y_u)_i\right)d T(x_u)_i\right) \frac{\partial T(x_u)}{\partial \theta} = 0

+1
thg 2 21, 2023 9:26 SA

OpenAI đang down toàn bộ hệ thống rồi. Chắc là đang migrate từ AWS sang Azure.. Kéo theo là các startup AI cũng down theo kha khá 😂😂

0
thg 2 21, 2023 9:17 SA

Reactjs Cài đặt tương đối khó ? Xây dựng app reactjs bao giờ chưa thế ?

0
thg 2 21, 2023 8:59 SA

@phuocdang.dev Cảm ơn bạn rất nhiều

0
Viblo
Hãy đăng ký một tài khoản Viblo để nhận được nhiều bài viết thú vị hơn.
Đăng kí