Em dùng laravel 5.8 chạy : composer require bensampo/laravel-enum
thì nó lỗi như này là sao a. Em tìm stackover mà chưa ra:
Your requirements could not be resolved to an installable set of packages.
Problem 1
- Root composer.json requires bensampo/laravel-enum ^3.3 -> satisfiable by bensampo/laravel-enum[v3.3.0].
- bensampo/laravel-enum v3.3.0 requires illuminate/contracts ^8.0 -> found illuminate/contracts[v8.0.0, ..., 8.x-dev] but these were not loaded, likely because it conflicts with another require.
Installation failed, reverting ./composer.json and ./composer.lock to their original content.
Theo mình mọi trường hợp dùng Array.every đều có thể chuyển sang dùng Array.some để cải thiện performance vì some kiểm tra đến một trường hợp đúng thì sẽ dừng lại ngay.
Ví dụ:
Chúng ta muốn kiểm tra xem tất cả các loại trái cây có màu đỏ hay không?
Khâu tuyển dụng của công ty này theo như bài mô tả thì mình nghĩ là có vấn đề. Tuyển đến mấy vòng, test + phỏng vấn đủ cả mà vẫn không biết là ứng viên có phù hợp hay không, không phát hiện được việc ứng viên nói hơi "quá đà" về khả năng của mình.
Vì thế nên mình nghi ngờ luôn việc giúp đỡ ứng viên hòa nhập, làm quen với công ty cũng có vấn đề luôn.
Mình có 1thắc mắc là ở đoạn Slices sao lại như này nhỉ:
"export const { todoAdded, todoToggled, todosLoading } = todosSlice.actions"
sao lại là ".actions" nhỉ, trong khi 3 cái function này là reducer mà nhỉ?
Chào bạn,
Cám ơn bạn đã chia sẻ bài viết rất hay, tuy nhiên bạn cho mình xin github repo full source được không bạn?
Mình làm theo hướng dẫn của bạn thì handler/server.go bị dư biến "s" không sử dụng & thiếu hàm Close nên không thể start server được.
thank bạn lần nữa
@vovanphu mình cũng đang có data unsupervised nên mình muốn train Sim nhưng mình train với pretrain là PhoBERT toàn bị lỗi, train từ source code của nó princeton-nlp/SimCSE thì như kiểu chưa cập nhập vinai/phobert-base nên toàn lỗi, còn từ sentences-transformers thì lại bị lỗi load data nên bạn có thể cho mình xin source code bạn train unsupervised sử dụng pretrain PhoBERT không bạn
Mình chia sẽ thêm về cách mình fix trường hợp này.
Đối với các trường hợp dữ liệu trả về thì dùng listagg bình thường:
select listagg(fullname, ', ') within group (order by userid) from user_
Trường hợp > 4000 ký tự thì mình truy vấn thế này:
select rtrim(xmlagg(xmlelement(e, fullname,',').extract('//text()') order by userid).getclobval(), ', ') from user_
Về performance thì mình chưa tìm hiểu kỹ, hiện tại mình chỉ biết mỗi cách fix thế này thôi.
trong bài này mình train theo cả hai hướng là supervised learning và unsupervised learning. đối với data train supervised mình chủ yếu tạo bằng cách thêm từ, dịch data từ tiếng anh, ... còn data train unsupervised mình crawl thẳng trên web, và sử dụng các open dataset của tiếng việt.
THẢO LUẬN
@maitrungduc1410 Oke. Cảm ơn bạn nhiều nhiều
Bài viết rất hay. anh cho em xin source code với ạ. Em cảm ơn anh ạ!
Em dùng laravel 5.8 chạy : composer require bensampo/laravel-enum thì nó lỗi như này là sao a. Em tìm stackover mà chưa ra: Your requirements could not be resolved to an installable set of packages.
Problem 1 - Root composer.json requires bensampo/laravel-enum ^3.3 -> satisfiable by bensampo/laravel-enum[v3.3.0]. - bensampo/laravel-enum v3.3.0 requires illuminate/contracts ^8.0 -> found illuminate/contracts[v8.0.0, ..., 8.x-dev] but these were not loaded, likely because it conflicts with another require.
Installation failed, reverting ./composer.json and ./composer.lock to their original content.
@hung1998 Bạn chỉ rõ giúp mình những icon nào chuyển thành dấu ? vậy ạ
Theo mình mọi trường hợp dùng
Array.every
đều có thể chuyển sang dùngArray.some
để cải thiện performance vì some kiểm tra đến một trường hợp đúng thì sẽ dừng lại ngay.Ví dụ:
Thay vì dùng
Array.every
:Ta có thể thay bằng
Array.some
:Khâu tuyển dụng của công ty này theo như bài mô tả thì mình nghĩ là có vấn đề. Tuyển đến mấy vòng, test + phỏng vấn đủ cả mà vẫn không biết là ứng viên có phù hợp hay không, không phát hiện được việc ứng viên nói hơi "quá đà" về khả năng của mình. Vì thế nên mình nghi ngờ luôn việc giúp đỡ ứng viên hòa nhập, làm quen với công ty cũng có vấn đề luôn.
cảm ơn bạn đã ủng hộ ạ
Mình có 1thắc mắc là ở đoạn Slices sao lại như này nhỉ: "export const { todoAdded, todoToggled, todosLoading } = todosSlice.actions" sao lại là ".actions" nhỉ, trong khi 3 cái function này là reducer mà nhỉ?
Chào bạn, Cám ơn bạn đã chia sẻ bài viết rất hay, tuy nhiên bạn cho mình xin github repo full source được không bạn? Mình làm theo hướng dẫn của bạn thì handler/server.go bị dư biến "s" không sử dụng & thiếu hàm Close nên không thể start server được. thank bạn lần nữa
Có ai có thể chỉ em từng bước không ạ🤧 em chỉ mới biết viết Pascal th🤧
khi training với pytorch xong thì mình test model training được như nào nhỉ bạn cảm ơn bạn
@vovanphu mình cũng đang có data unsupervised nên mình muốn train Sim nhưng mình train với pretrain là PhoBERT toàn bị lỗi, train từ source code của nó princeton-nlp/SimCSE thì như kiểu chưa cập nhập vinai/phobert-base nên toàn lỗi, còn từ sentences-transformers thì lại bị lỗi load data nên bạn có thể cho mình xin source code bạn train unsupervised sử dụng pretrain PhoBERT không bạn
Rất hữu ích! Thanks!
@NguyenMai
Mình chia sẽ thêm về cách mình fix trường hợp này.
Đối với các trường hợp dữ liệu trả về thì dùng listagg bình thường: select listagg(fullname, ', ') within group (order by userid) from user_
Trường hợp > 4000 ký tự thì mình truy vấn thế này: select rtrim(xmlagg(xmlelement(e, fullname,',').extract('//text()') order by userid).getclobval(), ', ') from user_
Về performance thì mình chưa tìm hiểu kỹ, hiện tại mình chỉ biết mỗi cách fix thế này thôi.
@quangle111120 folder này tự tạo nhé
bắt cá 2 táy nghiệp quật chừ
Tổng từ A - Z máy bay, cách ly ăn uống, ks trong 21 ngày, khoảng trên dưới 60 nha @raindayqb !
trong bài này mình train theo cả hai hướng là supervised learning và unsupervised learning. đối với data train supervised mình chủ yếu tạo bằng cách thêm từ, dịch data từ tiếng anh, ... còn data train unsupervised mình crawl thẳng trên web, và sử dụng các open dataset của tiếng việt.
vẫn mông lung lắm