@kstn_hut_hat Mình cũng rất hứng thứ với các bài toán NLP cho tiếng Việt. Nhưng có điều cách làm Extractive bạn bảo sử dụng skip-thoughts sau đó k-mean mình vẫn thấy nghi ngờ, bạn đã thử dùng độ đo gì để đánh giá kết quả chưa? Mình cũng đọc qua bài đó nhưng thấy bài báo gốc chưa được publish bởi 1 hội nghị nào uy tín(lúc mình đọc còn giờ thì chưa biết), cũng không có so sánh đánh giá gì nên mình cũng chưa muốn deploy. Mình còn nhận thấy 1 điểm khá nguy hiểm của phương pháp đấy là k-mean không phân cụm hiệu quả khi bài văn của bạn chỉ có vài chục đến vài trăm câu. Kỹ thuật cluster cho text summarization đúng là có nhưng dùng k-mean thì coi chừng thực tế sẽ khác xa so với paper đấy.
Các bài toán cho tiếng Việt thì mình nghĩ cố gắng sử dụng các giải thuật unsupervised là tốt nhất, mình vẫn đang cố khai thác tiềm năng từ wikipedia, mình nghĩ đây là bộ dữ liệu khá okie )
@QuangPH nếu là dạng bài báo áp dụng thuật toán kiểu mình nghĩ ra có vẻ ổn nhưng mà dạng khác thì thấy "ko ưng".
Còn về Extractive đang tham khảo bài 1 bạn trên viblo.asia nhưng train skip-thoughts - sent2vec - chứ ko dùng word2vec. Bài toán mình dùng cho tiếng việt nên đang suy nghĩ dùng tập train nào.
Mình nghĩ ý tưởng của bạn đưa ra là mỗi đoạn genarate 1 headline rồi ghép lại thành 1 văn bản tóm tắt là khá hay nếu muốn kế thừa 1 số source code sẵn. Còn bài toán Abstractive text summarization này thì mình cũng chưa làm nên cũng không support được gì cho bạn. Mình thấy cộng đồng VNLP vẫn đang cố gắng làm tốt bài toán Extractive text summarization nhiều hơn.
Rất mong có thể trao đổi nhiều với bạn về những bài toán này trong thời gian tới )
THẢO LUẬN
cảm ơn cậu (h)
cảm ơn a, bài viết rất hay
)
Cái này giống VueX của vuejs nhỉ
@pht Đúng rồi, cảm ơn bạn nhiều. Mình sẽ thử gói .deb
@hasuki
Bạn cài VS Code từ Ubuntu Software à? Nếu cài từ đây thì có thể nó là app dạng
snap, chưa hỗ trợ ibus.Mình cài từ trang chủ của https://code.visualstudio.com/download
Cảm ơn bạn, mình thử nhiều cách nhưng vẫn không được M đang dùng vscode phiên bản mới nhất
@kstn_hut_hat Mình cũng rất hứng thứ với các bài toán NLP cho tiếng Việt. Nhưng có điều cách làm Extractive bạn bảo sử dụng skip-thoughts sau đó k-mean mình vẫn thấy nghi ngờ, bạn đã thử dùng độ đo gì để đánh giá kết quả chưa? Mình cũng đọc qua bài đó nhưng thấy bài báo gốc chưa được publish bởi 1 hội nghị nào uy tín(lúc mình đọc còn giờ thì chưa biết), cũng không có so sánh đánh giá gì nên mình cũng chưa muốn deploy. Mình còn nhận thấy 1 điểm khá nguy hiểm của phương pháp đấy là k-mean không phân cụm hiệu quả khi bài văn của bạn chỉ có vài chục đến vài trăm câu. Kỹ thuật cluster cho text summarization đúng là có nhưng dùng k-mean thì coi chừng thực tế sẽ khác xa so với paper đấy.
Các bài toán cho tiếng Việt thì mình nghĩ cố gắng sử dụng các giải thuật unsupervised là tốt nhất, mình vẫn đang cố khai thác tiềm năng từ wikipedia, mình nghĩ đây là bộ dữ liệu khá okie
)
dạ
@QuangPH nếu là dạng bài báo áp dụng thuật toán kiểu mình nghĩ ra có vẻ ổn nhưng mà dạng khác thì thấy "ko ưng". Còn về Extractive đang tham khảo bài 1 bạn trên viblo.asia nhưng train skip-thoughts - sent2vec - chứ ko dùng word2vec. Bài toán mình dùng cho tiếng việt nên đang suy nghĩ dùng tập train nào.
@devil_boom_129 Hoặc cách này xem có ngắn hơn ko bạn nhé !
Mình nghĩ ý tưởng của bạn đưa ra là mỗi đoạn genarate 1 headline rồi ghép lại thành 1 văn bản tóm tắt là khá hay nếu muốn kế thừa 1 số source code sẵn. Còn bài toán Abstractive text summarization này thì mình cũng chưa làm nên cũng không support được gì cho bạn. Mình thấy cộng đồng VNLP vẫn đang cố gắng làm tốt bài toán Extractive text summarization nhiều hơn. Rất mong có thể trao đổi nhiều với bạn về những bài toán này trong thời gian tới
)
Bạn khai báo biến text = "text bat ky". Sau đó gọi các hàm tương ứng như trên.
@HoanKi em cảm ơn ạ. ok rồi ạ
@devil_boom_129
File seed.rb của bạn đang còn thiếu trường
room_info: "1"nhé.Sửa thành
mount_uploader :pictures, RoomImageUploaderValidate đang lỗi, mình tạm comment lại
Và đây là kết quả:
Em sửa thì bị trả thông báo null cả trường
Cảm ơn bạn đã ủng hộ.
cảm ơn bạn rất nhiều. Bạn giải thích rất dễ hiểu