1.Qua gợi ý của bạn. Mình nghĩ ko nên dùng queues vì sợ mất data , time out các kiểu .
2. Cách trên bị hạng chế do độ trễ của mỗi jobs => jobs A chạy tốn 5s thì jobs B sẽ bị call trễ 5 giây
Mình nghĩ ra giải pháp sau bạn góp ý vs nha
cron job chạy 1 phút 1 lần
query lấy process nào active = true;
Nếu nó đang được kích hoạt thì mình cho nó vào vòng lặp while với điều kiện bên dưới
publicfunctionshedule(){$total=$process->total;$result=array('completed '=>0'success'=>0,'error'=>0,);while(){if(Redis::get('active'.$process_id)==flase||$result['completed ']>$total){break;$this->jobCompletedCallback($result);}try{$this->doMyJobs();$result['success']++;}catch(Exception$e){$result['error']++;}$result['completed ']++;$this->saveResult($result);sleep(16);}}publicfunctiondoMyJobs(){// nhiệm vụ con}publicfunctionsaveResult($result){// lưu tạm kết quả lên redis}publicfunctionjobCompletedCallback($result){// nhiệm vụ xong lưu kết quả vào database và xóa mọi thứ trên redis}
Ngoài ra thay vì tạo một lúc 5000 rows, nếu có thể bạn có thể chỉ set các job con cho phút đầu tiên, sau mỗi mỗi job con sẽ có callback để init job con kế tiếp gối nhau như thế. Tuy nhiên làm thế này sẽ phải handle error tốt nếu không muốn đang chạy thì đứt gánh
Chào bạn.
Các trên gặp một vấn đề là Khi Người dùng dừng tiến trình. Thì các Jobs buộc phải bị hủy.
Nếu vậy. Trong jobs ta vẫn phải request tới database để kiểm tra trạng thái của tiếng trình
@bs90 : Bác Nói đúng ý em rồi
Đơ là do em sử lý bacnkend cả triệu reuqest một lúc
Vì Khi người dùng tạo ra một tiến trình . Ngay lập tức trong backend của em sẽ tạo 5000 rows chứa Thông tin về Jobs của Tiến trình Vừa tạo.
=> em nói thêm là cứ mỗi lần request thành công em sẽ tính phí người dùng.
Giải pháp ném lên Redis : Gặp một ván đề là khi người dùng hủy tiến trình thì các Jobs của tiến trình đó phải hủy theo.
@yukihoaian Bạn mới học iOS sơ sơ + add vào dự án thì chắc là sẽ có người hướng dẫn bạn phải không. Mình nghĩ tốt nhất là bạn nên chủ động hỏi người hướng dẫn của bạn. Vì người đó (có thể) là người rõ nhất về cả business và code, nên giải pháp của người đó sẽ chính xác hơn cả.
Còn cái này
Message from debugger: Terminated due to memory issue"
có thể là vì bạn load quá nhiều video 1 lúc, dẫn đến việc tràn bộ nhớ (app dùng nhiều RAM quá bị out)
Trong trường hợp này bạn chỉ nên chạy 1 video 1 lúc, các video chưa chạy sẽ không load AVPlayer lên, mà chỉ hiển thị ảnh thumbnail cho nó. Đơn giản vì người dùng cũng không cần thiết phải xem 2 video chạy 1 lúc, việc đó chỉ làm app của bạn tốn nhiều bộ nhớ hơn mà thôi.
DISCUSSIONS
Cảm ơn bạn đã chia sẻ.
không có thả
nhỉ
))
dạ vâng em đã dẫn nguồn rồi ạ ! Em sơ xuất quá ạ !
1.Qua gợi ý của bạn. Mình nghĩ ko nên dùng queues vì sợ mất data , time out các kiểu . 2. Cách trên bị hạng chế do độ trễ của mỗi jobs => jobs A chạy tốn 5s thì jobs B sẽ bị call trễ 5 giây Mình nghĩ ra giải pháp sau bạn góp ý vs nha
thanks bro, t có đổi cách viết, mong thím thích kiểu mới này =))
rất cảm ơn sự ủng hộ của anh, thú thực là tôi đã sai khi cố dặn ra thật nhiều chữ cho đạt yêu cầu, đã cải tạo lại cho bớt lan man =))
Ngoài ra thay vì tạo một lúc 5000 rows, nếu có thể bạn có thể chỉ set các job con cho phút đầu tiên, sau mỗi mỗi job con sẽ có callback để init job con kế tiếp gối nhau như thế. Tuy nhiên làm thế này sẽ phải handle error tốt nếu không muốn đang chạy thì đứt gánh
Bài này của anh Trần Trọng Thanh bên Nâu Studio. Mình nghĩ bạn nên ghi nguồn và thêm link gist của anh ấy thì bài của bạn có giá trị hơn.
@MinhDuc redis về cơ bản nó cũng là một dạng db, đọc ghi bình thường mà
Giả sử user huỷ job lớn thì set một cái key “<job_id>_cancelled” value true.
Trước khi chạy job con nào thì check cái key đó, true thì return luôn không cho chạy nữa chẳng hạn.
vậy bác có gặp tình trạng hay nhảy pointer lung tung và mất chữ ko?
Mình cũng đang dùng trên Ubuntu 18.04 đây, nó bị sao vậy bạn.
Thank man ^_^
Chào bạn. Các trên gặp một vấn đề là Khi Người dùng dừng tiến trình. Thì các Jobs buộc phải bị hủy. Nếu vậy. Trong jobs ta vẫn phải request tới database để kiểm tra trạng thái của tiếng trình
Mình đang cần cái này. thanks bạn nhé.
@bs90 : Bác Nói đúng ý em rồi Đơ là do em sử lý bacnkend cả triệu reuqest một lúc
Vì Khi người dùng tạo ra một tiến trình . Ngay lập tức trong backend của em sẽ tạo 5000 rows chứa Thông tin về Jobs của Tiến trình Vừa tạo.
=> em nói thêm là cứ mỗi lần request thành công em sẽ tính phí người dùng.
Giải pháp ném lên Redis : Gặp một ván đề là khi người dùng hủy tiến trình thì các Jobs của tiến trình đó phải hủy theo.
Rất dễ hiểu, cảm ơn bác
@HoanKi Tôi thấy bài viết này rất hay và hữu ích. Cảm ơn!
mình dùng trên ubuntu 18.04 nó ko được ổn lắm
Mình góp ý chút:
@yukihoaian Bạn mới học iOS sơ sơ + add vào dự án thì chắc là sẽ có người hướng dẫn bạn phải không. Mình nghĩ tốt nhất là bạn nên chủ động hỏi người hướng dẫn của bạn. Vì người đó (có thể) là người rõ nhất về cả business và code, nên giải pháp của người đó sẽ chính xác hơn cả.
Còn cái này
có thể là vì bạn load quá nhiều video 1 lúc, dẫn đến việc tràn bộ nhớ (app dùng nhiều RAM quá bị out)
Trong trường hợp này bạn chỉ nên chạy 1 video 1 lúc, các video chưa chạy sẽ không load AVPlayer lên, mà chỉ hiển thị ảnh thumbnail cho nó. Đơn giản vì người dùng cũng không cần thiết phải xem 2 video chạy 1 lúc, việc đó chỉ làm app của bạn tốn nhiều bộ nhớ hơn mà thôi.