@VoDaiPhuoc Cảm ơn bạn rất nhiều về những góp ý. Cá nhân mình nghĩ nếu như tất cả mọi người đều ý thức được như những điều bạn nói thì thật sự quá tốt, nhưng mình thấy không ít bộ phận trong xã hội đang thần thánh hóa nó, hiểu sai nó. Bài viết mình viết ra cũng mong muốn đem đến một vài góc khuất của công nghệ AI hiện nay nói chung và ChatGPT nói riêng bên cạnh những lời tung hô có cánh ngoài kia và mục tiêu cuối cùng cũng là để chúng ta có thể tận dụng công nghệ làm cho cuộc sống tốt đẹp hơn. Mình là người làm công nghệ nên mình luôn mong mỏi điều đó trong bất kì sản phẩm nào. Một lần nữa cảm ơn bạn nhiều
@devil_boom_129 Hihi, kệ họ đi em. Nếu như những thứ họ làm có thể mang lại hữu ích cho người dùng thì nên ủng hộ em ạ. Còn nếu như nó vẫn còn những vẫn đề về quy chuẩn đạo đức thì nên xem xét lại.
anh ơi, VN cũng bắt trend lắm. Có thằng khởi nghiệp mới đây còn quảng cáo rầm rộ trên báo là VoiceGPT anh ạ. Tức lấy nguyên API của bọn này thêm tí text to speech. Mà nhìn bài báo còn thấy hướng bọn start up này ko phải bền mà là lập ra để đớp xong chết
@HQuang cái này là cross-entropy CE(target,predict)
target label: stop-gradient(softmax(y^u))
predict label: y^u
Một cái là softmax(logit) với 1 cái là (logit) thì làm sao gradient bằng 0 được ông. Mà gradient này chảy về model predict label, nên stop gradient ở target có ảnh hưởng gì đâu. Đoạn tính gradient cho student trên tập unlabeled cũng stop gradient với softmax(y^u) đấy:
đù comment giống với suy nghĩ của mình quá, quả thật là những thuật ngữ từ trc đến giờ chỉ do chúng ta giao tiếp với nhau mà tự định nghĩa ra thôi, bản chất sự việc là như nhau nhưng có người nói thế này có người lại gọi thế khác, thì sự thật vẫn không thay đổi. Cái chính là cách mà mình tư duy nó có sát với cái bản chất nhất hay không:)) Nếu sát sít sìn sịt thì gọi là kiên định, sai bét tè lè nhè mà vẫn giữ quan điểm thì gọi là vừa dốt vừa cố chấp:))) Phét thế chứ mình thuộc dạng thứ 2 à:)))
@nguyen.van.quan stop gradient nếu dùng soft label thì không cập nhật đâu ông, gradient của cross entropy là pi−∂li∂log(∑eli, nếu dùng soft label như code gốc thì gradient bằng 0.
Cá nhân mình thấy việc con người kể cả người làm về AI hay người bình thường sử dụng thì phải luôn ý thức được rằng giá trị trả về từ AI sẽ có sai số nhất định. Cho nên việc phải kiểm tra lại thông tin từ Chatgpt là bình thường, cũng giống như khi một người nào đó trả lời câu hỏi của mình hoặc nói với mình về 1 sự việc nào đó, liệu chúng ta có tin lời họ 100% hay không? hay lại phải đi hỏi 1 người khác. Về search engine, khi ta search 1 thông tin nào đó, chính chúng ta là người sẽ lựa chọn và kiểm tra tính đúng sai của thông tin, bản thân search engine cũng đâu tự phân biệt được đúng hay sai đâu, nó chỉ phân hạng thông tin dựa trên những quy định, mà quy định đó cũng chính từ con người đặt ra. Vậy nên tiếp nhận kết quả từ AI hay con người thì đều do chính bản thân mình quyết định.
THẢO LUẬN
@VoDaiPhuoc Cảm ơn bạn rất nhiều về những góp ý. Cá nhân mình nghĩ nếu như tất cả mọi người đều ý thức được như những điều bạn nói thì thật sự quá tốt, nhưng mình thấy không ít bộ phận trong xã hội đang thần thánh hóa nó, hiểu sai nó. Bài viết mình viết ra cũng mong muốn đem đến một vài góc khuất của công nghệ AI hiện nay nói chung và ChatGPT nói riêng bên cạnh những lời tung hô có cánh ngoài kia và mục tiêu cuối cùng cũng là để chúng ta có thể tận dụng công nghệ làm cho cuộc sống tốt đẹp hơn. Mình là người làm công nghệ nên mình luôn mong mỏi điều đó trong bất kì sản phẩm nào. Một lần nữa cảm ơn bạn nhiều
@huyDinhTrong Cảm ơn em nhiều
@vuhoang132 Cảm ơn bạn đã comment. Chúc bạn có nhiều trải nghiệm hơn nữa với VIblo
@devil_boom_129 Hihi, kệ họ đi em. Nếu như những thứ họ làm có thể mang lại hữu ích cho người dùng thì nên ủng hộ em ạ. Còn nếu như nó vẫn còn những vẫn đề về quy chuẩn đạo đức thì nên xem xét lại.
E vô tình biết tới anh khi đang tìm hiểu những cách thay thế local environment. Qua đó còn học thêm nhiều cái hay từ blog của a ^^
anh ơi, VN cũng bắt trend lắm. Có thằng khởi nghiệp mới đây còn quảng cáo rầm rộ trên báo là VoiceGPT anh ạ. Tức lấy nguyên API của bọn này thêm tí text to speech. Mà nhìn bài báo còn thấy hướng bọn start up này ko phải bền mà là lập ra để đớp xong chết
@HQuang cái này là cross-entropy CE(target,predict)
Một cái là softmax(logit) với 1 cái là (logit) thì làm sao gradient bằng 0 được ông. Mà gradient này chảy về model predict label, nên stop gradient ở target có ảnh hưởng gì đâu. Đoạn tính gradient cho student trên tập unlabeled cũng stop gradient với softmax(y^u) đấy:

bài viết hữu ích quá
đù comment giống với suy nghĩ của mình quá, quả thật là những thuật ngữ từ trc đến giờ chỉ do chúng ta giao tiếp với nhau mà tự định nghĩa ra thôi, bản chất sự việc là như nhau nhưng có người nói thế này có người lại gọi thế khác, thì sự thật vẫn không thay đổi. Cái chính là cách mà mình tư duy nó có sát với cái bản chất nhất hay không:)) Nếu sát sít sìn sịt thì gọi là kiên định, sai bét tè lè nhè mà vẫn giữ quan điểm thì gọi là vừa dốt vừa cố chấp:))) Phét thế chứ mình thuộc dạng thứ 2 à:)))
@longyu vào chọn phiên bản php đúng nhé. Để biết hosting sài php bản nào thì tạo 1 file info.php trong file đề code :<?php phpinfo();
Bài viết hay, cảm ơn đã mở mang đầu óc cho mình
mình thay collection của mình thành 'db.user', 'db.product' hay như thế nào anh nhỉ
@huukimit hiện tại e cấu hình thêm vào kiểu gì a nhỉ? E đang chạy container dựa trên image chứ không dùng docker-compose
Như thường lệ, bài viết công phu và bổ ích quá anh ạ
rất bổ ích
@nguyen.van.quan stop gradient nếu dùng soft label thì không cập nhật đâu ông, gradient của cross entropy là pi−∂li∂log(∑eli, nếu dùng soft label như code gốc thì gradient bằng 0.
Cá nhân mình thấy việc con người kể cả người làm về AI hay người bình thường sử dụng thì phải luôn ý thức được rằng giá trị trả về từ AI sẽ có sai số nhất định. Cho nên việc phải kiểm tra lại thông tin từ Chatgpt là bình thường, cũng giống như khi một người nào đó trả lời câu hỏi của mình hoặc nói với mình về 1 sự việc nào đó, liệu chúng ta có tin lời họ 100% hay không? hay lại phải đi hỏi 1 người khác. Về search engine, khi ta search 1 thông tin nào đó, chính chúng ta là người sẽ lựa chọn và kiểm tra tính đúng sai của thông tin, bản thân search engine cũng đâu tự phân biệt được đúng hay sai đâu, nó chỉ phân hạng thông tin dựa trên những quy định, mà quy định đó cũng chính từ con người đặt ra. Vậy nên tiếp nhận kết quả từ AI hay con người thì đều do chính bản thân mình quyết định.
Cảm ơn bài viết của anh đã cung cấp cho người đọc nhưng góc nhìn thực tế nhất từ GPT.
PaLM công bố từ Apr2022 đã có 540 tỉ param.
po*nhub kiếm 50m user chỉ sau có 19 ngày =)) reddit
@linh11102000 Cảm ơn em về một comment không phải generate từ ChatGPT nha. 😝